Documentos de Académico
Documentos de Profesional
Documentos de Cultura
net/publication/325908683
CITATIONS READS
13 2,860
1 author:
Roberto A. Gonzalez
Polytechnic University of Nicaragua
60 PUBLICATIONS 68 CITATIONS
SEE PROFILE
Some of the authors of this publication are also working on these related projects:
Developing a Model for the Enzymatically Catalyzed Synthesis of Galactosyl Oligo Saccharides in a Continuous Membrane Reactor System View project
Modelling Study of different process modes for retroviral production in a fixed bed reactor View project
All content following this page was uploaded by Roberto A. Gonzalez on 21 June 2018.
Diciembre 2000
PROLOGO
Las presiones competitivas en la industria química y en la biotecnológica hacen cada vez más
necesario contar con procedimientos que permitan escalar lo más rápido y directo posible, desde
los laboratorios de investigación y desarrollo. para poder acortar el tiempo que transcurre entre la
concepción de un nuevo proceso y la puesta en marcha de la planta correspondiente, a escala
industrial.
Esta tarea no puede cumplirse sin un dominio y aplicación adecuada de las técnicas de esalado
y por esa razón, este texto tiene como objetivos generales:
Presentar de forma ordenada los fundamentos de los métodos de escalado, definiendo
adecuadamente ese término.
Introducir el concepto de Ingenierización en los trabajos de Investigación y Desarrollo.
Conocer los procedimientos de aplicación del escalado en la solución de los problemas
relacionados con el desarrollo de tecnologías y procesos industriales, a partir de resultados
científicos obtenidos en los laboratorios.
Conocer algunas de las aplicaciones prácticas de los métodos estudiados.
Conocer la teoría y los fundamentos de las plantas piloto, definiendo la naturaleza de su
actividad y las opciones disponibles para la utilización de las mismas.
Para cumplir esos objetivos se han considerado seis capítulos. Para la confección de los
capítulos 2, 3 y 4 se tomó como base el clásico texto de Johnstone y Thring "Pilot Plants,
Models and Scale-up in Chemical Engineering" , y en especial sus capítulos 2, 3, 4, 5, 6, 7. 8 y
9 y los Apéndices 1 y 2, traducidos y actualizados. El Capítulo 1 se redactó tomando como base
los materiales de los Talleres Internacionales sobre Escalado realizados en la Habana en 1992,
1993 y 1995 y para el resto se tomaron como base principalmente artículos de revistas
actualizadas de la especialidad y textos como "La Teorìa de los Modelos en la Ingenierìa de
Procesos" de J. Rosabal
CAPITULO 1
INTRODUCCION AL ESCALADO INDUSTRIAL
Por esa causa la reacción química se afecta por el tipo de reactor y el efecto del incremento
de escala resulta normalmente impredecible de forma cuantitativa, lo que resulta más
complejo aún cuando en la reacción participan diferentes fases, a causa de que los fenómenos no
son todos afectados en la misma forma por las dimensiones de una planta (Tabla 6-2) (29).
Tabla 6.2. Efecto de las dimensiones geométricas en lo fenómenos pirncipales que ocurren
en un reactor con fases múltiples.Tomado de Trambouze, 1979 (29).
DIMENSIONES GEOMÉTRICAS
MECA- Volumen razón L/D Superficie
NISMO ( DL2) lateral/vol.
( D-1)
Reac- Fuerte, Débil e Sin
ción prácticamente indirecto influencia
química determinante directa
Transf. No Fuerte Sin
de masa determinante. influencia
Indirecto directa
Transf. Débil e Fuerte Fuerte y
de calor indirecto directo
No existe duda alguna que es técnicamente posible transferir casi cualquier proceso
desarrollado a nivel de laboratorio, directamente a la producción industrial a gran escala,
si se dispone de suficiente tienpo y dinero, de forma que los diseñadores consideren
factores de seguridad suficientemente amplios y que se esté dispuesto a un largo período de
puesta en marcha, que permita adiestrar al personal y descubrir las diferentes causas de
interrupciones y problemas de operación y afrontar los riesgos inevitables en la operación
de nuevos procesos no suficientemente estudiados (7).
Tampoco existe duda que los datos obtenidos en plantas de pequeña escala, correctamente
diseñadas y operadas, son mucho más seguros para el diseño que los obtenidos directamente del
laboratorio, con lo cual se pueden reducir considerablemente los factores de seguridad en el
diseño y reducir apreciablemente el período y los riesgos de la puesta en marcha de las unidades
comerciales, pero para obtener dichos datos se requiere a su vez de tiempo y empleo de recursos
materiales y humanos (7).
Por todo lo anterior, en todos los casos resulta imprescindible el análisis detallado de las
características del proceso que se pretende desarrollar y del nivel de conocimientos que se
tiene sobre el mismo, para poder decidir las etapas que hay que acocometer y planificarlas
adecuadamente, de forma tal que se emplee el mínimo de recursos y se culmine en el
menor tiempo posible.
Las técnicas de escalado se han desarrollado precisamentre con el objetivo de reducir al mínimo
indispensable ese tiempo de I+D y en ellas juegan un papel determinante las consideraciones
técnico económicas.
Finalmente se debe considerar otro objetivo ligado al concepto de escalado y que es el estudio
del comportamiento de una planta en producción existente, a partir de una unidad pequeña que
reproduce, en lo fundamental, el funcionamiento de la unidad comercial. Este objetivo cae dentro
de la esfera del estudio de los procesos pero en principio no se diferencia del objetivo relacionado
con el desarrollo de nuevos procesos, siendo la única diferencia práctica el hecho de que para el
estudio de los procesos se requiere, casi siempre, solamente de la etapa equivalente a la planta
piloto.
incremento se regula de manera tal que cada nueva etapa se realice con una carga inicial
(inóculo) entre un 5 y un 10 % del volumen efectivo total del equipo en cuestión y esto se
efectúa siempre, con independencia de si el proceso es uno ya establecido o un proceso en
desarrollo.
Este llamado "escalado" de las producciones Biotecnológicas no tiene realmente nada que ver
con el escalado que se estudia en el presente texto, pero ha sido causa de confusión y una de
los motivos por los cuales se utiliza mucho el volumen de los equipos como criterio de
definición entre las etapas de los procesos de I+D.
También se han utilizado como criterios las relaciones entre las dimensiones lineales de los
equipos (factores de escala geométricos), a partir de consideraciones de criterios de semejanza.
En ocasiones se toma como valor aproximado que los factores de escala geométricos (lineales)
deben estar en el rango de 5 a 15. De esa forma una columna de 2 m de diámetro puede ser
escalada por una de 250 mm, lo que representa un factor de escala de 8. No obstante, en la
práctica no es raro hallar factores tan bajos como 3 o tan altos como 100.
Una columna de 250 mm normalmente puede ser considerada demasiado grande para una
instalación a escala pequeña , incluso para una planta piloto, a menos que se desee procesar una
cantidad muy grande de producto y por ello se debe considerar un factor de escalado mayor, por
ejemplo 13 y considerar entonces una columna de 150 mm, mucho más adecuada y aún dentro
del rango recomendado. Si anteriormente se realizó el trabajo en la escala de banco con una
columna de 25 mm de diámetro, los factores de escala empleados han sido 6 y 13, o sea se ha
ido avanzando de un diámetro de 25 mm a 150 mm y finalmente a 2000 mm.
Por otra parte, cuando se escalan reactores la tendencia es a considerar el factor de escala por
el volumen y esto lleva en ocasiones a considerar factores más elevados que el rango
recomendado. Por ejemplo, si una reacción a escala de banco se ha realizado en un recipiente de
l2 L y el tamaño final del reactor industrial se estima en unos 11500 L, se puede pensar que
serán necesarias dos etapas intermedias, una de 100 L y otra de 1140 L, lo que daría factores de
escala de 8, 12 y 10 respectivamente.
Sin embargo, se puede considerar mejor un valor intermedio de 400 L y en ese caso los
factores de escala obtenidos (33 y 29) aunque superiores al rango recomendado, son también
aceptables y esta opción constituye un buen compromiso, evitando tener que construir dos
plantas piloto. Además si se considera la relación de escala con respecto a la dimensión lineal en
lugar del volumen, lo que es realmente lo recomendado para el escalado, el cuadro cambia
totalmente, ya que:
o sea factores de escala modestos, incluso por debajo del rango recomendado.
No obstante, en realidad el mejor criterio de definición de los límites entre las distintas escalas
es la de los objetivos que se persiguen con cada una de ellas y los resultados que se esperan.
Con ese criterio más amplio se pueden considerar la realización de etapas, por ejemplo de banco
y piloto, con equipos de pequeño volumen, normalmente considerados de laboratorio, en los
casos en que el nivel de precisión y automatización sea tan elevado y la necesidad de obtener
productos de muestra tan pequeña, que se puedan cubrir entonces los objetivos señalados para
realizados o en el mejor de los casos, tuvo una demora considera ble en obtener ganancia así
como una reducción apreciable en la magnitud de las mismas".
El concepto moderno de ingenierización es totalmente distinto a esa forma de trabaja:
La ingenierización contempla la interacción de los ingenieros de las distintas especialidades
(químicos, bioquímicos, mecánicos, eléctricos, industriales, etc.) junto con los investigadores
de laboratorio (químicos, bioquímicos, biólogos, médicos, físicos, etc.), desde el inicio mismo
del proceso de I+D (6, 12, 13 y 17).
Aquí en lugar de la Ingenieria por etapas o Secuencial del enfoque tradicional se emplea el
concepto de Ingeniería concurrente (17), lo que lleva a la utilización de equipos
multidisciplinarios, prácticamente desde el inicio del proceso de escalado. Para la aplicación
de la Ingenieria concurrente se necesitan algunos requisitos elementales, como son (15):
1. Tener facilidades de comunicación entre el colectivo, que en ocasiones resulta bastante
numeroso.
2. Usar técnicas de trabajo en grupo y técnicas de solución de problemas.
3. Disponer de locales de trabajo adecuados y servicios de oficina y de apoyo en general.
4. Disponer de bases de datos comunes.
Además, a este enfoque de trabajo se oponen muchos procedimientos establecidos y actitudes,
entre las que se destacan (15):
Departamentalización estructural
Sistema de estimulación diseñado para el individuo y no para el colectivo.
Dirigentes apegados a dar soluciones simples a problemas complejos.
No obstante estas dificultades la Ingeniería concurrente y en general la Ingenierización, ha
demostrado su utilidad práctica y esta forma de trabajar integrado en grupos multidisciplinarios
ha sido adoptada a nivel mundial, especialmente a partir de la década del 90. (6, 12, 13, 15, 17).
En esta concepción (Figura 1.1), se parte de que en la generalidad de los casos, el surgimiento de
un nuevo producto o tecnología es consecuencia de una demanda social que impone la
necesidad de una respuesta tecnológica y de una demanda de mercado que estimula una
respuesta de la que se esperan varias ventajas económicas o de otra índole, por lo cual la
iniciativa para el desarrollo surge generamente de instituciones o empresas motivadas por
la interacción del factor social y del mercado (11).
Este proceso constituye realmente una etapa exploratoria y culmina con el planteamiento del
problema a resolver por la I+D: la necesidad de un nuevo producto o tecnología (11).
Después de planteado el problema viene una etapa preparatoria, en la cual se precisa mejor la
tarea y se toman como antecedentes todo el conocimiento anterior aportado por la
bibliografía. La investigación bibliográfica reporta una información que debe ser
cuidadosamente analizada y ordenada, de forma que pueda ser adecuadamente utilizada en
cada etapa de la investigación.
A partir de esa etapa preliminar, que puede incluir un trabajo inicial de laboratorio, comienzan
las etapas fundamentales del proceso de desarrollo del nuevo producto o tecnología: las etapas
de Ingenierización, en las cuales trabaja un colectivo multidisciplinario y donde las tareas
de ingeniería de proceso se realizan en paralelo al trabajo de las distintas escalas (Figura 1.1)
(7. 11. 13).
Del trabajo conjunto de investigación e ingeniería, surgen las variantes iniciales del diseño de
planta, que sirven en cada caso para diseñar y seleccionar adecuadamente el equipo que se usará
en la escala siguiente, pudiéndose decidir incluso la eliminación de algunas de las etapas, si el
nivel de información así lo aconseja.
Se llega de esa forma a la etapa final de diseño y proyectos de Ingeniería, donde se realiza
toda la documentación final del proyecto (6), la que debe estar compuesta de:
1. Diagrama de flujo y Balances de materiales y energía del proceso en su conjunto
("Flowsheeting del proceso").
2. Definición primaria de las especificaciones de equipos y otros elementos del sistema
tecnológico.
3. Diseño de ingenieria de procesos y automática de equipamiento.
4. Diseño de la planta, como un sistema integral, incluyendo los servicios con la calidad
requerida, protección del medio y del personal y las buenas prácticas de producción.
5. Proyecto Ejecutivo de los equipos y otros elementos de fabricación nacional.
6. Documentación técnica de puesta en marcha y operación.
"Para duplicar la receta.... si se trata de cakes o panetelas deberá usarse, para más seguridad,
doe moldes del tamaño que indica la receta, pero si se desea podrá usarse uno que tenga el doble
de capacidad, cuidando el tiempo de horneo, que será entonces mayor y muy variable de acuerdo
con las condiciones del medio".
¿Puede Vd. explicar cuáles son las variaciones que se producen en el horneo durante el
escalado (ascendente o descendente) que hacen necesario variar el tiempo de horneo?.
1.7 Situación del escalado en Cuba.
El insuficiente desarrollo de los procesos de escalado constituye una de las dificultades que se
presentan en las condiciones actuales de Cuba, al tratar de avaluar técnica y económicamente
los resultados científicos (1). El no dominio de estos procedimientos ha sido la causa de
no pocos intentos fallidos y de procesos industriales deficientes (6, 15).
Los ejemplos de este sentido son abundantes y es posible ejemplificarlos con las
dificultades que han existido con el desarrollo del proceso industrial de fermentación del
bagazo en estado sólido para la producción de alimento animal (sacharina), el cual no ha
podido cumplir con las expectativas que los elevados contenidos de proteína obtenidos en las
pruebas a pequeña escala, hicieron surgir.
Esta situación hizo necesario que en 1991 el Consejo Científico Superior de la Academia de
Ciencias de Cuba (A.C.C.) analizara un estudio realizado al efecto por una Comisión
temporal de ese Consejo (1) y que se realizara un estudio similar para su discusión en el
Polo Científico del Oeste en 1992 (6). Como resultado de esos análisis se adoptaron un
grupo de medidas encaminadas a revertir esta situación, entre las que se destaca la organización
de eventos científicos internacionales sobre esa temática, llevados a cabo con éxito en l992,
1993 y 1995.
Otras recomendaciones se refieren al papel que deben jugar los Centros de Educación Superior
del país en la profundización del trabajo sobre escalado e ingenierización y en ese sentido
destacan las palabras del Ministro de Educación Superior, Dr. Fernando Vecino Alegret, el
cual planteó, en su intervención del 2 de mayo de l993, en el Seminario de Perfeccionamiento
para dirigentes de la Educación Superior:
"Una insuficiente infraestructura tecnológica, un pobre desarrollo de los procesos de
escalado y la insuficiente evaluación económica, son barreras aún presentes para alcanzar
resultados que reporten verdaderos beneficios económicos y sociales, a partir de la
investigación científica.
En la solución de este problema, las universidades pueden hacer una importante
contribución al país, razón por lo que hemos incluído entre nuestros objetivos principales
trabajar en el escalado e ingenierización de procesos para el desarrollo de aquellas
tecnologías vinculadas con resultados científicos obtenidos por los Centros de Educación
Superior o por otras instituciones del país".
CAPITULO 2
depende del tamaño del sistema ni de las unidades de medida en las cuales se miden esas
magnitudes.
Estas relaciones de magnitud pueden ser medidas de dos formas diferentes: especificando
las proporciones entre diferentes mediciones en el mismo cuerpo (proporciones intrínsecas o
factores de forma) o comparando mediciones correspondientes en cuerpos diferentes
(relaciones o factores de escala).
En el primer caso se requieren valores de un cierto número de factores de forma para
poder definir la configuración de un objeto y por lo tanto su semejanza con otro, mientras que en
el segundo basta un único y constante factor de escala para definir esa semejanza.
Como ejemplo de lo anterior tenemos que la forma geométrica de un cuerpo se determina por
sus proporciones intrínsecas: (relación altura/ancho, relación ancho/espesor de la pared, etc.)
por ello dos cuerpos serán semejantes geometricamente, cuando esos factores de forma son
iguales entre ambos. A su vez cuando se comparan dos cuerpos geométricamente semejantes,
las relaciones entre sus respectivas alturas, anchos y espesores son constantes y
constituyen el llamado factor de escala.
Por esa razón la semejanza geométrica se define mejor en términos de correspondencia y su
factor de escala. Sin embargo cuando las comparaciones son hechas con otras variables como la
velocidad, la fuerza o la temperatura, la semejanza se define mejor con relaciones
intrínsecas para cada sistema, los que constituyen los grupos adimensionales, tan conocidos por
los ingenieros. Por tanto, cuando se dice que dos sistemas son semejantes es necesario, además,
especificar cuáles son las configuraciones internas de los mismos que se comparan (geométricas,
cinemáticas, térnicas, etc).
Con estas definiciones básicas, se está en condiciones de estudiar más detalladamente el
Principio de Semejanza y para ello se considerararán los cuatro tipos de semejanza más
importantes en las aplicaciones de Ingeniería Química y Bioquímica (8):
Hay que tener en cuenta que si bien estrictamente hablando, cada una de esas semejanzas
requiere del cumplimiento de todas las anteriores a ella, es muy difícil lograr eso en la práctica
y por ello en muchas ocasiones es necesario aceptar una aproximación, por ejemplo, a la
semejanza química, con sustanciales divergencias en la semejanza mecánica.
También hay que considerar que todos los casos de Semejanza de hecho contienen un
elemento de aproximación, debido a factores de distorsión que estrán siempre presentes y que
impiden que en la
realidad se pueda obtener una semejanza ideal. Por ejemplo, dos conductos para fluidos pueden
ser diseñados y construídos con dimensiones geométricamente semejantes, pero es
virtualmente imposible hacer también semejante geométricamente la rugosidad superficial, y
esas diferencias pueden tener alguna influencia
sobre los patrones de flujo en ambos conductos.
Sin embargo, a menudo esas desviaciones de la semejanza ideal son despreciables y la
aproximación obtenida es totalmente válida a los efectos prácticos. En los casos en que no se
logre ésto, se tienen que considerar los llamados efectos de escala e introducir correcciones de
alguna clase. a la hora de realizar los escalados ascendentes o descendentes.
En estas discusiones sobre semejanza, es necesario referirse frecuentemente a cantidades
correspondientes y sus relaciones en sistemas semajantes. En esos casos en el numerador se
colocarán siempre las magnitudes referidas al prototipo y se diferenciarán de las del modelo por
un apóstrofe. Las relaciones entre ambas cantidades correspondientes se expresarán empleando
caracteres en negrita, lo que resulta una forma conveniente y compacta de representar las
relaciones de escala.
Semejanza geométrica.
La semejanza geométrica se define mejor en términos de correspondencia y por tanto
por el factor de escala L, qurelaciona las distintas dimensiones lineales de un sistema con las
del otro y que se pueden ejemplificar de la forma siguiente:
Consideremos dos cuerpos (Figura 2.1) cada uno de los cuales está provisto de tres ejes
imaginarios que se intersectan en el espacio, de forma tal que cada punto de los cuerpos es
descrito por tres coordenadas y tomemos un punto P' dentro del primer cuerpo (el mayor)
cuyas coordenadas son X', Y', Z', y un punto P dentro del segundo cuerpo (el menor), cuyas
coordenadas son X. Y, Z.
Si se cumple que ambos están relacionados por la ecuación:
donde la relación o factor de escala lineal L es constante, se puede decir entonces que esos dos
puntos y todos los otros pares de puntos cuyas coordenadas espaciales estén similarmente
relacionadas en términos de L, son puntos correspondientes.
Se define entonces que dos cuerpos son geométricamente semejantes cuando para cada
punto en uno de ellos existe al menos un punto corrrespondiente en el otro.
El concepto de semejanza geométrica se ilustra en la figura 2.1, donde x - x', y - y' y z -z'. son
coordenadas correspondientes, P y P' puntos correspondientes y L y L' longitudes
correspondientes.
puede ser un elemento modelo, o sea un modelo a escala de un elemento del prototipo
completo y ese elemento modelo puede ser además un elemento modelo distorsionado.
Todas esas relaciones geométricas se ilustran en la figura 2.2, en la que se muestra también la
relación de sección B , la cual es la relación entre el área de la sección transversal del prototipo
con relación a la del elemento o del respectivo número de células unitarias o componentes.
Los modelos son definidos a través de la relación de escala L y los elementos modelos tienen a
la vez una relación de sección B y una o más relaciones de escala.
El concepto de elemento es útil solamente cuando los efectos provocados por las paredes
del recipiente pueden ser ignorados o controlados independientemente, como es el caso de un
reactor catalítico, donde la superficie frontera es normalmente despreciable comparada con
la superficie interior.
También puede ser permisible, en ciertas circunstancias, considerar un recipiente vacío
como un elemento de uno grande, cuando, por ejemplo, el recipiente pequeño es
controlado térmicamente con un enchaquetado adiabático. Lo fundamental en un elemento es
que bajo idénticas condiciones debe producir el mismo grado de cambio que produce el
prototipo, pero en una menor cantidad de materia.
Por ejemplo una torre empacada es posible dividirla verticalmente en elementos,
cada uno de los cuales tiene la misma altura de cama que el prototipo, pero si se divide
horizontalmente o se reduce en altura, las partes se convierten en elementos diferenciales los
cuales no son susceptibles de ser tratados con los conceptos de semejanza. De igual forma, una
sola fila de tubos puede considerarse como un elemento de un condensador vertical (Figura 2.3)
(Johnstone y Thring, 1957).
Semejanza mecánica.
Esta semejanza puede ser considerada una extensión del concepto de semejanza geométrica a
los sistemas estacionarios o en movimiento, bajo la influencia de fuerzas. Según el tipo de
sistemas y de fuerzas, esta semejanza puede ser estática, cinemática o dinámica.
Figura 2.3 Una fila de tubos en un condensador vertical, como ejemplo de elemento (De
Johnstone y Thjring, 1957)
Con esa base la semejanza estática se define como:
Dos cuerpos geométricamente semejantes son semejantes estáticamente cuando
ante tensiones constantes, sus deformaciones relativas son tales que permanecen
geométricamente semejantes.
En ese caso la relación de los desplazamientos correspondientes serán iguales a la relación
de escala lineal y los esfuerzos en puntos correspondientes serán también iguales.
Cuando el modelo tiene una semejanza geométrica distorsionada, las relaciones requeridas de
las formas correspondientes para la semejanza estática serán diferentes en las
diferentes direcciones. Esto ocurre también cuando uno o ambos cuerpos son anisotrópicos y
tienen diferentes módulos elásticos en las diferentes direcciones.
La semejanza estática es principalmente de interés para los ingenieros mecánicos y de
estructuras, los cuales emplean modelos para predecir las deformaciones elásticas o
plásticas de miembros tensionados o de estructuras de formas complejas.
Semejanza cinemática.
La semejanza cinemática se relaciona con sólidos o sistemas fluidos en movimiento, lo
que añade a las tres coordenadas espaciales, la dimensión adicional del tiempo.
Los tiempos se miden partiendo de un cero arbitrario para cada sistema y se definen los
tiempos correspondientes como los tiempos tales en los cuales t'/t = t constante, siendo t la
relación de escala de tiempo. A su vez la diferencia entre pares de tiempos correspondientes
se denominan intervalos correspondientes y las partículas semejantes geométricamente que
se centran sobre puntos correspondientes en tiempos correspondientes se denominan
partículas correspondientes.
La semejanza cinemática se define entonces como:
Figura 2.5 Variación de la relación V/Vm en una tubería recta (De Johnstone y Thring,
1957).
Esta figura ilustra la importante conclusión de que a velocidades de flujo muy altas o muy
bajas los sistemas de flujo de fluidos monofásicos que son geométricamente semejantes,
pueden ser tratados como semejantes cinemáticamente, con independencia de la variación de la
velocidad del flujo.
Semejanza dinámica.
La semejanza dinámica se relaciona con las fuerzas que aceleran o retardan masas en
movimientos en sistemas dinámicos. Las fuerzas de una misma clase (gravitacional, centrífuga,
etc.) que actúan sobre partículas correspondientes en tiempos correspondientes, se denominan
fuerzas correspondientes.
Los sistemas en movimiento geométricamen-te semejantes son dinámicamente
semejantes cuando las relaciones entre todas las fuerzas correspondientes son iguales.
Semejanza térmica.
La semejanza térmica tiene que ver con los sistemas en los cuales hay un flujo de calor, por
lo que introduce la dimensión de temperatura, además de las dimensiones de longitud, masa y
tiempo.
El calor puede fluir de un punto a otro por radiación, convección, conducción y movimiento
global de materia mediante la acción de un gradiente de presión. Para los primeros tres procesos
se requiere un gradiente de diferencias de temperatura y por ello, si se mantienen las otras
condiciones iguales, la variación con respecto al tiempo del flujo de calor entre dos puntos
varía con la diferencia de temperatura entre ellos.
condiciones son expresads como igualdades entre razones de magnitudes correspondientes dentro
del mismo sistema, que toman la forma de grupos adimensionales.
Al analizar cualquier sistema, la semejanza se determina por la igualdad del valor de
dichos grupos en el prototipo y en el modelo. Estos grupos constituyen los criterios de
semejanza entre los sistemas comparados. Así, por ejemplo, el número de Raynolds es el
criterio de semejanza dinámico para sistemas de flujo geometricamente semejantes.
Análisis Dimensional.
El análisis dimensional es una técnica para expresar el comportamiento de un sistema
físico en términos de un número mínimo de variables independientes y en una forma tal
que no resulten afectadas por los cambios de las magnitudes de las unidades de medidas. Las
cantidades físicas se agrupan en grupos adimensionales consistentes en relaciones de
magnitudes iguales (longitudes, velocidades, fuerzas, etc.) que caracterizan el sistema, los
que constituyen las variables en la ecuación adimensional de estado (o de movimiento) del
sistema.
El análisis dimensional puede brindar resultados incorrectos a menos que se hayan tenido en
cuenta cada una de las variables que influyen significativamente en el sistema que se está
analizando, por lo cual es necesario conocer bastante sobre los mecanismos de un proceso antes
de poder aplicar con confianza este método. La clave del éxito está en la selección inicial de las
variables.
Si la lista de variables es muy larga y se incluyen por lo tanto variables cuyo efecto no es
apreciable, los factores superfluos se pueden eliminar a veces durante el análisis, pero en la
mayoría de los casos esto no es posible y el número de criterios de semejanza obtenidos
resulta innecesariamente grande y el problema de alcanzar la semejanza aparece más difícil de
lo que realmente es. Si por el contrario, se omite alguna de las variables realmente
relevantes en el sistema, el análisis dimensional llevará a una falsa conclusión.
De lo antes expuesto se deriva el hecho de que la aplicación del análisis dimensional
aisladamente es muy difícil que nos conduzca a obtener un conocimiento completamente
nuevo. Muchas de las aplicaciones clásicas de este método lo que han hecho realmente es
confirmar las relaciones que ya se conocían o al menos se sospechaban, lo que de hecho
elimina la dificultad principal de la selección inicial de las variables.
Para obtener los criterios de semejanza a partir del Análisis Dimensional se utiliza el Teorema
de Buckingham y el Método de Railegh y se parte de conocer todas las variables que
intervienen en un proceso dado, como se ha dicho anteriormente. La aplicación de estos
métodos se pueden estudiar en diferentes textos como los de Jonhstone y Thring (1957), Perry y
Green (1986) y Rosabal (1988).
Ecuaciones Diferenciales.
Para muchos de los procesos físicos y químicos que se utilizan en las ingenierías química y
bioquímica, se conocen las ecuaciones diferenciales fundamentales, pero la dificultad radica
en su integración, lo que solamente puede ser hecho matemáticamente para sistemas de forma
determinada y no muy elevado rango de complejidad. Este es el caso, por ejemplo, del flujo
laminar de fluido en tuberías rectas, el que se resuelve por la conocida ecuación de Poiseuille
(3).
Muy frecuentemente el sistema o proceso es tan complejo que resulta imposible una
integración matemática y es necesario integrarla empiricamente y de esa forma se han
obtenido la mayor parte de las ecuaciones de las ingenierías química y bioquímica. Sin embargo
su carácter empírico hace que las mismas sólo sean válidas cuando el sistema al cual se aplican
mantiene cierta semejanza geométrica con el sistema del cual fueron derivadas
experimentalmente.
En los casos en que la ecuación diferencial que gobierna un sistema se conoce y
siempre y cuando ésta sea completa y dimensionalmente homogénea, resulta fácil poner la
ecuación en forma adimensional y derivar entonces de ella los criterios de semejanza
necesarios, sin tener que aplicar los métodos del análisis dimensional, lo que representa
varias ventajas.
En primer término se elimina una de las principales dificultades del análisis dimensional,
que es la de asegurar que ninguna variable significativa sea ignorada y en segundo lugar,
utilizando las ecuaciones diferenciales se puede mostrar el sentido físico de los grupos
adimensionales obtenidos, como una relación de flujos, fuerzas o cantidades análogas.
Estas ventajas no quieren decir que la información obtenida por este método no esté sujeta a
errores, como son los producidos por despreciar algunas variables menores durante el desarrollo
de la ecuación, pero evita los errores adicionales que se pueden incorporar debido a una
incorrecta integración de la ecuación o una evaluación imprecisa de las constantes.
Para derivar esos criterios de semejanza de las ecuaciones diferenciales, se procede de la
forma siguiente:
1- Se reduce la ecuación diferencial a una forma dimensional generalizada, omitiendo los
signos diferenciales y las constantes numéricas.
2- Se divide la ecuación por uno cualquiera de sus términos, de manera tal que todos sus
miembros se tornen adimensionales.
Para los procesos en serie, las ecuaciones físicas tienen la forma de las ecuaciones en serie
y los criterios adimensionales son relaciones de las fuerzas impulsoras o de las resistencias.
Para los procesos en paralelo las ecuaciones físicas tienen la forma de las ecuaciones paralelas y
los criterios adimensionales son relaciones de flujos, conductancias o cantidades totales. Para
los procesos serie-paralelo, las ecuaciones compuestas, deben ser resueltas en sus
componentes simples, en serie y en paralelo, a cada una de las cuales se les aplicara uno o más
criterios adimensionales.
Este procedimiento se aplica a los diferentes tipos generales de procesos, o sea:
Procesos mecánicos.
1- Deformación elástica de sólidos
2- Deformación plástica de sólidos
3- Flujo de sólidos granulares
4- Flujo de fluídos
Procesos térmicos.
5- Conducción en sólidos
6- Convección forzada en fluidos
7- Radiación
Procesos difusionales.
8- Conveccion forzada en fluidos
Procesos químicos.
9- Reacciones homogéneas
10- Reacciones heterogéneas
Ejemplos amplios de la aplicación de estos procedimientos en todos estos procesos se hallan
en el Jonhstone y Thring (1957) y en el Rosabal (1988).
En ese epígrafe se definieron también los criterios de semejanza adimensionales como las
relaciones de cantidades físicas que son función de las diversas fuerzas o resistencias que
controlan la variación con respecto al tiempo de la reacción, por lo cual cuando en un sistema
hay diversos factores controlantes de clases diferentes, habrán también varios criterios
adimensionales.
Por ejemplo, la resistencia al movimiento de un fluido puede ser debida al arrastre viscoso, a
las fuerzas gravitacionales o a la tensión superficial y en cada caso los criterios adimensionales
de semejanza serán los grupos de Reynolds, Froude y Weber respectivamente. Sin
embargo para sistemas homólogos de diferentes magnitudes absolutas, esos tres criterios son
mutualmente incompatibles, puesto que cada uno de ellos requiere que la velocidad del
fluido varíe como una función diferente de la dimensión lineal, ya que:
Para iguales números de Reynolds v es proporcional a L-1
Para iguales números de Froude v es proporcional a L0.5
Para iguales números de Weber v es proporcional a L-0.5
Si se emplean fluidos con muy diferentes propiedades físicas en los dos sistemas y se
selecciona una relación de escala apropiada, es posible, dentro de ciertos límites satisfacer
simultáneamente dos cualesqiera de esos criterios, pero es casi imposible cumplir con los tres a
la vez.
Por ejemplo (11), en un mezclador de paletas sin deflectores, el patrón de flujo depende tanto
del número de Reynolds como del de Froude y ambos criterios pueden hacerse iguales en
mezcladores semejantes geométricamente sólo si se emplean líquidos de diferentes
viscosidades en el prototipo y en el modelo. En ese caso, para iguales números de Froude:
Y para iguales números de Reynolds:
consiguiente, las reacciones químicas pueden estar sujetas a un régimen dinámico cuando el
sistema es heterogéneo y la velocidad de reacción muy alta. De manera semejante, la
transferencia de calor está sujeta a un régimen dinámico cuando la convección forzada es la
que controla la rapidez, mientras que el régimen será térmico cuando controlan la radiación
o la convección natural.
El término régimen se emplea en este texto para distinguir el proceso que determina la
razón de cambio de un sistema en el cual pueden estar ocurriendo otros varios procesos en
serie o en paralelo, o en otras palabras, régimen es la fuerza particular, flujo o factor de
resistencia que controla la razón de cambio global del sistema. En un sistema estático por
ejemplo, el régimen distingue los factores que gobiernan el desplazamiento total.
En un sistema dado, el régimen depende de las magnitudes relativas de las diversas
resistencias de la reacción y las mismas varían con las condiciones de operación. Por ejemplo,
en una reacción química que está sujeta a un régimen dinámico, el incremento de la agitación
puede llegar a disminuir la resistencia de la difusión hasta un punto en el cual la resistencia
de la conversión predomine y el régimen se convierta en químico. Entre estos dos regímenes
hay una región intermedia de régimen mixto en la cual tanto la resistencia de la conversión
como la de la difusión son apreciables.
Correspondiendo a cada una de las clases principales de regímenes (estático, dinámico,
térmico o químico), existen diversas variantes posibles de acuerdo con la naturaleza de la
fuerza motriz o factor de resistencia que controle la resultante, ya sea ésta una cantidad total o
variación con el tiempo Por ejemplo, un régimen dinámico fluido puede ser controlado por la
relación de las fuerzas de inercia a las de viscosidad, gravedad o tensión superficial y a su vez,
el régimen controlado por la viscosidad puede ser laminar o turbulento.
Teniendo en cuenta lo antes expuesto, para realizar un escalado ascendente o descendente
confiable, son necesarias dos condiciones:
1- El régimen debe ser relativamente "puro", o sea la variación con respecto al
tiempo de la reacción debe depender principalmente de un único grupo adimensional.
2- El régimen debe de ser del mismo tipo tanto en el prototipo como en el modelo.
La primera condición ya ha sido analizada y la segunda requiere que, cuando se planifican una
serie de experimentos con modelos o en plantas piloto, se tengan constantemente en mente
las condiciones correspondientes en el prototipo, para impedir que el régimen vaya a ser
diferente. Esto puede ocurrir principalmente cuando es necesario extrapolar las relaciones
de semejanza .
Tabla 3.1 Constantes de tiempo para diferentes procesos que ocurren en un bioreactor
industrial (fermentación ácido glucónico) Tomado de Mattews y Reuss, 1993.
Proceso Ecuación Const. de
tiempo
Fenóm. Transp.
Transf.
masa gas-
líquido 5.5 - 11.2
Tiempo
circulación
12.3
Tiempo
residen-
cia del gas 20.6
Transf. de
calor
330 - 650
Conversión
Consum. de
oxígeno
0.7 - 16
Utiliza-ción
del sustrato
5.5E+4
Creci-
miento
biomasa 1.2E+4
Produc-ción
de calor
350
3- Cuando el coeficiente de temperatura de 10 es mayor que 1.5 y menor que 2 y el índice de
Reynolds está por debajo de 0.5, prevalece un régimen dinámico-químico mixto.
requerida. De igual forma cuando se tiene un régimen mixto controlado por la gravedad y
la viscosidad, un cambio en la geometría del sistema puede eliminar el efecto de la
gravedad, como ocurre cuando se introducen deflectores en un mezclador de paletas.
Cuando es imposible o impracticable escapar de un régimen mixto mediante la modificacion
de las condiciones de operación, hay varios procedimientos mediante los cuales las
dificultades inherentes del régimen mixto pueden ser por lo menos parcialmente resueltas. Entre
esos procedimientos tenemos:
1-Calcular uno de los factores de resistencia y realizar los experimentos con modelos
para determinar el otro.
El ejemplo clásico de este procedimiento es la prueba en tanques de modelos de casco de
buques. En ese caso (11), el sistema depende tanto del número de Reynolds como del número
de Froude, o sea el coeficiente de arrastre (CD) es igual a:
2- Realizar una distorsión geométrica del modelo para compensar el régimen mixto.
Por ejemplo, en el caso de un tubo simple a través del cual fluye y reacciona químicamente
una mezcla gaseosa, el calor generado se remueve del exterior del tubo por radiación y
convección natural. La rapidez global de la reacción estará influenciada tanto por la
composición química como por la rapidez de la transferencia de calor, o sea el régimen es
parcialmente químico y parcialmente térmico.
Para lograr la semejanza la temperatura de reaccion debe ser la misma tanto en la escala
grande como en la pequeña y también la pérdida de calor por unidad de área debe ser igual
en ambas escalas. Estos requerimientos simultáneos no pueden ser cumplidos por un modelo,
puesto que la superficie relativa del mismo siempre es mucho mayor que la del prototipo y
por consiguiente las pérdidas de calor serán excesivas en el modelo y la temperatura de reacción
no podrá ser mantenida, lo que impide la modelación.
En ese caso la semejanza puede alcanzarse, si se distorsiona geométricamente el modelo
de forma tal que el área superficial por unidad de volumen sea igual a la del prototiopo, lo que
se logra manteniendo igual el diámetro en el modelo y en el prototipo, por lo cual el modelo será
un recipiente achatado, en lugar del tubo alargado del prototipo y por ello hay que ajustar los
flujos de reactivos de forma tal que el tiempo de residencia sea igual en ambos.
Con ese modelo distorsionado en la vertical, se logra mantener la condición de igual
temperatura, al ser igual la transmisión de calor al exterior y solamente hay que tener en
cuenta los posibles efectos de las pérdidas de calor mayores que pueden existir en los
extremos del modelo achatado.
Las pérdidas de calor por los extremos del recipiente modelo se pueden prevenir mediante
aislamiento, aunque se debe tener en cuenta que los efectos de los extremos sólo
pueden ser despreciados en un rango de escala moderado. Cuando la reducción de escala es
grande, este método tienda a dar un modelo con forma de torta, en el cual los efectos de los
extremos pueden llegar a ser predominantes.
Bajo las circunstancias arriba mencionadas, el coeficiente de transferencia de calor interno
será menor en el modelo que en el prototipo a causa de la menor velocidad de fluido. Esta
diferencia se considera que tiene una influencia despreciable en el coeficiente global,
pero la semejanza puede ser mejorada calculando aproximadamente los coeficientes de
película internos en ambos recipientes y considerando suficiente superficie extra en el modelo
para compensar la pequeña disminución del coeficiente global que pueda producir la
disminución del coeficiente interno.
En otras palabras, la discrepancia de segundo orden debido a los coeficientes de película
internos se corrige aplicando el método 1 explicado anteriormente.
Otros ejemplos de este tipo (11) se tienen en los casos de varios sistemas hidráulicos
complejos como son el diseño de aliviaderos en las presas, el control de inundaciones, el
estudio de las características de los estuarios de los ríos y la protección de puertos mediante
rompeolas artificiales, entre otros, en los cuales la reducción de escala es muy grande y se está
en presencia de una dependencia simultánea de los números de Froude y Reynolds.
En esos sistemas se hace necesario tomar grandes relaciones de reducción de las distancias,
siendo típico un valor de 1000 debido al tamaño de los prototipos. Sin embargo, si se toma la
misma relación de reducción para las distancias verticales, resultan profundidades demasiado
pequeñas en el modelo, por lo que hay que aplicar una semejanza geométrica distorsionada,
tomándose por ejemplo, un valor de 100 para la reducción de las distancias verticales y
manteniéndose 1000 para las horizontales.
Figura 2.6 Ejemplos de modelos a gran escala (mockups) utilizados para el desarrollo de
diversos procesos petroquímicos (De Trambouze, 1990).
En todo los casos los mockups, como los demás tipos de modelos, se han usado como
complemento de los equipos de laboratorio, banco o piloto desarrollando con los mismos la
investigación de los mecanismos físicos que son más sensibles al tamaño como son los
procesos hidrodinámicos
Cuando se trata de las plantas piloto en las cuales los fluidos a procesar son iguales que los
prototipos, no se pueden utilizar estos procedimientos y hay que utilizar otros medios entre los
que se destacan el uso de elementos o modelos de elementos y la extrapolación.
Cuando el aparato prototipo tiene una estructura mútiple, es posible entonces establecer la
semejanza mediante un elemento de tamaño completo o un modelo a escala de ese
elemento, con relativamente poca reducción de escala. Esto se puede hacer, por ejemplo, en el
caso de un mezclador o reactor químico del tipo de
tanque agitado, donde el rendimiento depende del patrón de flujo global del sistema. Entonces,
cuando la semejanza dinámica resulta impracticable. se necesita algún método mediante el
cual el comportamiento del modelo pueda ser extrapolado a condiciones dinámicamente
disímiles en el prototipo.
S' = S
se tiene:
Q' = Q (2-4)
momentum por convección forzada. Este exponente ha sido determinado experimentalmente por
un número de investigadores para diferentes fluídos, condiciones de operacion y
configuraciones geométricas y los valores típicos para la transferencia de calor y masa en
las configuraciones más usuales se pueden obtener de la literatura especializada y en particular
en el Johnstone y Thring (1957), se puede ver una tabla de los valores típicos para procesos de
transferencia de calor y masa.
Se ha podido comprobar que en sistemas geométricamente semejantes, los índices de
Reynolds tanto para la transferencia de calor como para la de masa son sustancialmente iguales
y por ello, en la mayoría de las aplicaciones el índice de Reynolds se denota por x. En los casos
que se haga necesario diferenciar entre los índices para los distintos tipos de transferencia, se
emplean entonces los valores de x con los subíndices correspondientes: xf para la
transferencia de momentum, xh para la de calor y xm para la de masa.
Cuando los rangos de flujo son moderados el índice de Reynolds para transferencia de
momentum, xf es del mismo orden de magnitud que los otros tres índices, con valores entre 0,8-
0,85. Cuando las velocidades son altas, xf diverge de los otros y se aproxima a la unidad, por
lo cual en esos casos el efecto del número de Reynolds en los patrones de flujo es
despreciables y el coeficiente de presión ( ) es casi constante.
cámara en lugar de las del recipiente. Sin embargo, aunque los efectos de frontera no pueden
ser eliminados teóricamente, ellos pueden ser neutralizados o compensados por
procedimientos experimentales adecuados, en dependencia del tipo de efectos que la frontera
esté ejerciendo sobre el sistema .
En general, la pared de un recipiente puede tener cuatro diferentes tipos de efectos sobre
una reacción física o química que esté ocurriendo dentro de él :
de los recipientes contenedoras. El espesor de la pared del recipiente no está sujeta a las
requerimientos de semejanza geométrica y debe ofrecer, en unión con cualquire aislamiento
externo, la misma resistencia térmica por unidad de área, tanto en el modelo como en el
prototipo. En el caso de un recipiente metálico sin aislamiento, la principal resistencia
térmica radica en la película de aire del exterior del recipiente y por ello el efecto del espesor
de la pared puede en general despreciarse.
En sistemas para los cuales la semejanza inherente no es posible, las condiciones térmicas en
las fronteras deben ser controladas artificialmente, siendo el mejor método de control para
las pérdidas de calor superficial desde recipientes calientes, el empleo de resistencias
eléctricas mediantes alambres enrrollados. Estos alambres deben colocarse preferentemente
dentro del material de aislamiento, aproximadamente en la mitad entre la pared del recipiente y
la superficie del aislante y las vueltas sucesivas de cable que se requieren para alcanzar la
longitud necesaria, se deben acomodar en el espacio comprendido entre la mitad del aislante
y la superficie del recipiente.
La potencia que se debe suministrar al enrrollado se calcula apartir de un estimado
generoso de la pérdida máxima de calor desde el enrrollado, a través de la capa exterior de
aislante, asumiendo que el enrrollado está a la misma temperatura que el recipiente. Unido a
este dato y conociendo la resistividad del material del alambre de enrrollado, se calcula
entonces la sección transversal del alambre de resistencia.
La regulación del calor suministrado a la resistencia se hace por réostatos en serie u otros
procedimientos de control similares. Para asegurar el mantenimiento de condiciones
adiabáticas es suficiente tener un termopar dentro del recipiente caliente y otro dentro del
aislante, entre la pared del recipiente y el enrrollado de resistencias,ajustándose la corriente que
circula de forma tal de mantener las dos temperaturas iguales.
Cuando las pérdidas de calor deben ser controlados para un valor bajo definido, es mejor
tener los termopares sensitivos en el exterior del recipiente, uno adyacente a la pared y
otro muy cercano al enrrollado. Conociendo el espesor de aislante entre ambos termopares y la
resistividad del material aislante, se puede calcular exactamente el flujo de calor
mediante la diferencia de temperatura entre ambos .
Cuando la temperatura interna varía a lo largo de la longitud del recipiente, el enrrollado de
resistencia se hace comúnmente en secciones, cada una de las cuales se regula por un
reóstato separado y se controlan por temopares separados también .
Las chaquetas al vacío, utilizadas en ocasiones para el aislamiento térmico en el
laboratorio, como es el caso de los frascos de Dewar ordinarios, son problemáticas y
raramente efectivas en la escala de las plantas pilotos ya que un buen aislamiento no se
obtiene a menos que la presión absoluta en la chaqueta sea extremadamente baja, lo cual es
difícil de mantener con equipamiento ordinario de ingeniería debido principalmente a los
salideros por juntas, la porosidad del metal y soldaduras y la vaporización de trazas de humedad y
aceite. Además una chaqueta al vacío no disminuye grandemente las pérdidas o ganancias de
calor por radiación por lo cual se necesita utilizar superficies metálicas altamente reflectivas
Este tipo de reactor puede ser operado también en forma isotérmica o isoperibólica. En el
modo isoperisbólico se controla la temperatura de la camisa de enfriamiento y corresponde a la
forma de trabajar de los reactores discontinuos de la industria..En el caso de su uso en la
biotecnología se utiliza preferentemente el modo de operación isotérmico que no daña los
microorganismos (16) (Figura 2.8).
se debe pensar en utilizar alguna forma de recipiente de reacción empacada que permite una
mayor superficie interior que la que normalmente se utilizaría en un recipiente normal, de
forma tal que se puede escalar de acuerdo con los principios señalados anteriormente en este
capítulo.
Las dificultades se presentan cuando se tiene recipientes simples, a los cuales es
geométricamente imposible proveer una relación superficie/volumen tan baja en el laboratorio
como en la escala grande, y esto puede hacer necesario cubrir la superficie interior del
recipiente de laboratorio con alguna sustancia inactiva, para suprimir los efectos de la catalísis
superficial. Por ejemplo la reacción entre el etileno y el bromo se cataliza por la superficie de
cristal , pero cesa prácticamente cuando el cristal se cubre con cera parafina.
El conocido efecto de las dimensiones del recipiente en el tamaño de las partículas producidas
por las reacciones de precipitación es posiblemente semejante a los efectos de catálisis
superficial. Para igualdad de otras condiciones, los recipientes de reacción más grandes tienden
a dar precipitados más fácilmente filtrables, por lo que constituye uno de los pocos efectos de
frontera que son favorables en el proceso de escalado
Capítulo 3
ALGUNAS APLICACIONES DEL ESCALADO EN LA
INDUSTRIA QUÍMICA.
Se han seleccionado para las aplicaciones, dos tipos de equipos de amplio uso, no solamente
en la Industria Química sino también en las demás industrias, incluyendo la Biotecnológica. Ese
es el caso, por ejemplo, de los tanques con agitación mecánica, los cuales sirven de base a los
fermentadores más empleados en la Biotecnología, los fermentadores tipo tanque agitado.
Los reactores, por otra parte, constituyen los equipos fundamentales de la Industria Química,
pero los procedimientos desarrollados para su escalado resultan comunes en gran parte, con los
procedimientos de escalado de los reactores enzimáticos, de gran desarrollo en la Industria
Biotecnológica actual.
No obstante limitarse el estudio a dos tipos de equipos, la complejidad y amplitud del
proceso de escalado impiden que incluso éstos puedan ser abordados en su totalidad, por lo cual
se ha hecho énfasis en los aspectos fundamentales y en los procedimientos que permitan su
aplicación en otras condiciones y a otros equipos.
3.1 ESCALADO DE TANQUES CON AGITACION MECÁNI-CA
3.1.1 Introducción.
La agitación de fluidos se emplea ampliamente en las industrias química y bioquímica,
existiendo gran diversidad de métodos de agitación y por ello la selección de los mismos y de
los aparatos para ejecutarlos, dependen del objetivo que se quiere lograr y del estado de
agregación de los materiales a agitar. De esos métodos, los dos más empleados para la
donde S1 y S² son los factores de forma que caracterizan el tanque en cuestión, los que se cancelan cuando se
comparan dos tanques geométricamente semejantes.
Además, en los casos en que se agitan juntos dos líquidos inmiscibles, un líquido se
dispersa como gotas en el seno del otro y la tensión superficial en la intefase entre los dos
líquidos juega un papel relevante en el consumo de potencia, y en ese caso el número de Weber
(We) debe incluirse en el criterio.
El número de Froude (Fr), es una medida de la relación entre los esfuerzos de inercia y los de
Estos dos tipos de impelentes (propelas y turbinas axiales), son muy utilizados en la industria
química para sistemas muy sensibles al flujo, y para ellos el número Nq tiene una gran
importancia, por lo que la existencia de esos datos es de gran utilidad para el escalado de ese
tipo de mezcladores. No obstante, existen ocasiones en que este número resulta de
importancia también para otros tipos de impelentes y en esos casos, la carencia de
información disponible hace imprescindible la realización de experimentos para obtener los
datos necesarios.
La expresión del número de flujo queda como:
(3.3)
O sea que para un impelente dado, el flujo movido por el agitador es directamente
proporcional a la velocidad de rotación del mismo. Además el coeficiente de proporcionalidad
depende del tipo de impelente y de su relación D/T y Dw/D. Despejando entonces se obtiene:
(3.4)
También el nùmero de Potencia se relaciona con la velocidad y el diámetro del impelente,
cuando en régimen turbulento se hace independiente del número de Reynolds, quedando (22, 23):
(3.5)
De donde, despejando la potencia, se obtiene:
(3.6)
Esta expresión permite analizar el efecto de la variación del diámetro del impelente y la
velocidad de rotación, para un consumo de potencia constante, lo que resulta muy útil para el
escalado, como se verá posteriormente. De esta expresión se llega también a la relación entre el
flujo que mueve el agitador y la carga, a potencia constante, o sea (22):
(3.7)
Otros elementos importantes en el funcionamiento del un agitador, son el tiempo de mezclado
y el de circulación. Hay ocasiones en que los mismos tienen una importancia considerable y por
ello se ha estudiado por diversos autores lo que ocurre con esos tiempos durante el escalado.
Se ha demostrado que la capacidad de bombeo por unidad de volumen (Q/V) es una buena
indicación del tiempo de circulación de una partícula en un tanque pequeño (hasta 200 litros
aproximadamente) y que es mayor que Q/V en un tanque grande (hasta unos 4 m ). A su vez el
tiempo de mezclado es en general proporcional al tiempo de circulación, aunque esta relación no
está totalmente clara, ya que hay ocasiones en que el fluido recorre trayectorias en un tanque sin
que se produzca apenas mezcla con el resto del fluido en el recipiente (22).
No obstante, normalmente se acepta la relación entre el tiempo de circulación, el tiempo de
mezclado y la capacidad de bombeo por unidad de volumen (Q/V) y por ello se toma como
indicador de la igualdad de tiempos de circulación y de mezclado, la igualdad de la relación (Q/
V) (23).
Además de lo ya analizado se debe considerar también el gradiente de velocidad que sufre el
fluido a lo largo del eje, el cual varía en realación al tamaño relativo del impelente con
respecto al tanque. De un perfil de velocidad en un tanque agitado mecánicamente se
puede obtener (Figura 3-2), el valor del gradiente de velocidad, cuya pendiente se
y de ahí se obtiene:
(3-13)
Esta es una de las mejores opciones para el escalado de un tanque con agitación mecánica.
Se ha demostrado que es el mejor procedimiento para escalar las operaciones de
mezclado líquido-líquido, cuando el objetivo es lograr igualdad de área interfacial por unidad
de volumen de una mezcla líquida y también es aplicable a la dispersión de sólidos en líquidos
(28).
En otros muchos casos se acostumbra también a seleccionar este criterio de igual potencia
por unidad de volumen, lo que lleva en muchas ocasiones a escalados conservadores, aunque
siempre el tiempo de mezclado que se obtiene en el prototipo resulta mayor que en el modelo,
lo que se ha tenido en cuenta en los casos en que el tiempo de ciclo resulta importante (22).
Esto puede ocurrir, por ejemplo, cuando el resultado del proceso de agitación es una función del
número de veces que el material se circula a través de la zona de alta cizalladura.
volumen. No obstante, este criterio se emplea cuando es un requisito del sistema no exceder
un esfuerzo de cizalladura máximo, como es el caso de algunos procesos biotecnológicos en
que los microorganismos o células involucrados son muy sensibles a este parámetro.
Aquí también cabe el recurso de obtener esa condición sin mantener a semejanza geométrica,
o sea variando la relación D/T como se verá posteriormente, con lo cual se mejoran
sensiblemente los resultados (4, 20, 22). Las ecuaciones de escalado a considerar son:
NL = Constante (3-14)
o lo que es igual:
(3-15)
E-Igual coeficiente de transferencia de masa en el líquido.
Este es el procedimiento recomendado cuando el objetivo principal del tanque agitado
es disolver un gas en un líquido, como es el caso de los fermentadores industriales (1, 7,
21). Cuando se aplica en esos casos el criterio de igual P/V, se está haciendo un escalado
conservador, empleándose más potencia de la necesaria y sometiendo al medio a un esfuerzo
cortante mayor (Tabla 3-1).
Si se realiza el escalado con el criterio de igual coeficiente de transferencia (klal), se logran
mejores valores en muchos indicadores, para este tipo de tanque agitados. Las ecuaciones a
emplear son:
3-16
y de la misma se obtiene:
3.17
Aunque con los ejemplos analizados no se agotan todas las posibilidades, se logra una
idea bastante clara del comportamiento de los diferentes parámetros en las opciones de
escalado más empleadas. Quedan algunos casos específicos como es el de los tanques
agitados empleados como reactores, para reacciones químicas rápidas y competitivas, en que
hay que analizar tanto los fenómenos de mezclado en su conjunto (macromezclado), como el
micromezclado y por ello hay que considerar otras posibilidades como son la variación de la
posición y forma de la alimentación de los reactivos y el empleo de variantes con circulación
externa Esto hace más complejo el escalado y requiere de una cuidadosa experimentación
previa en cada caso (12).
También están los casos de los procesos muy sensitivos al flujo donde se pueden aplicar el
criterio de Intensidad de Mezclado (NI) y apartarse por completo de la semejanza geométrica,
utilizando los gráficos disponibles para el NI, por lo menos en los casos en que se emplean las
turbinas de flujo axial (3). Se ha recomendandado además recientemente por Obot (20), el empleo
de una llamada “Ley Friccional de los Estados Correspondientes” y de números reducidos de
Reynolds, de Flujo y de Potencia, lo que permite seleccionar en cada caso, la relación D/T
más conveniente para el escalado, corroborando lo antes planteado sobre la conveniencia de
apartarse de la semejanza geométrica estricta.
3.1.4 Relaciones de escalado para la transferencia de calor en tanques agitados mecánicamente.
La agitación se emplea en muchas ocasiones para mejorar la tranferencia de calor,
mientras que en otras la transferencia de calor acompaña a otra operación de mezclado, que
es la que controla la selección del mezclador y por tanto el escalado.
En los casos en que el objetivo principal es la transferencia de calor hay que distinguir entre
los llamados impelentes abiertos que son los que operan a cierta distancia de las paredes del
tanque, como las propelas y las turbinas y los que operan muy cercanos a la pared,
normalmente con una separación de menos de un 5% del diámetro interior, como las anclas y los
helicoidales.
Para el intercambio de calor en fluidos muy viscosos, se deben emplear los impelentes que
funcionan muy cercanos a la pared del recipiente, ya que los impelentes abiertos (turbinas,
propelas, etc) no son capaces de lograr el movimiento completo del fluido viscoso en todo el
volumen del tanque y en especial en las paredes. Esto es sumamente importante cuando lo
que se produce en el interior del recipientes es una reacción química entre productos muy
viscosos y se necesita controlar el calor de reacción (22).
Para poder predecir la rapidez de la transferencia de calor en tanques agitados, es
necesario estimar el coeficiente de transferencia de calor del lado del fluido de proceso (ho)
y para ello se aplican los métodos del Análisis Dimensional, a las ecuaciones de balance de
energía y flujo de calor y se obtiene:
Nu = ϕ ( Re, Pr ) (3-18)
Esa expresión se ha desarrollado para las tres superficies de transferencia de calor más
comunes en los tanques agitados: las chaquetas, los serpentines helicoidales y los tubos
verticales empleados como deflectores (23). Para los tanques agitados enchaquetados se
tiene:
(3-19)
En este caso el exponente m de término de corrección por viscosidad toma valores entre 0.1 y 1 y
se obtiene de:
.Y para los tubos verticales:
(3-21)
En todos los casos se asume convección forzada, por lo cual es necesario asegurar que eso
se cumpla y aunque se han desarrollado expresiones para determinar la velocidad mínima del
agitador con la cual se asegura la convección forzada, esas relaciones empíricas tienden a
ser válidas solamente para los sistemas en los cuales se desarrollaron. Por esa causa en la mayoría
de los casos es necesario auxiliarse de diversos medios, entre los que se incluye la
observación visual, para asegurarse de que el sistema se encuentre en convección forzada.
Para el escalado de los procesos de transferencia de calor en tanques agitados, en la
mayoría de las aplicaciones en las cuales controla el flujo, lo más aconsejable es utilizar el
criterio de mantener constante la potencia por unidad de volumen, ecuación (8-13), asumiendo
la semejanza geométrica y de esa forma debe obtenerse aproximadamente el mismo
coeficiente de transferencia de calor para el mismo tipo de impelente.
Ese método se utiliza a pesar de que se conoce que es realmente una aproximación, debido a
que el efecto de la potencia en el coeficiente de transferencia de calor es realmente pequeño y
por ello aún un moderado error en el escalado a P/V constante, tendrá sólo un mínimo efecto en
el coeficiente de transferencia de calor del lado del agitador o mezclador.
3.1.5 Sugerencias a tener en cuenta en el escalado de tanques agitados.
Como punto de inicio se debe considerar el criterio de escalar con igual P/V y semejanza
geométrica y calcular o estimar la potencia consumida, la velocidad y el diámetro del impelente
y las razones de cizalladura, analizando posteriormente con cuidado el comportamiento de
esos parámetros, de manera de poder juzgar cuan adecuada o inadecuada puede ser esa variante
de escalado.
Normalmente con eso se obtiene un escalado conservador y se puede dejar así, exepto en
algunos casos especiales, como son los procesos de dispersión de un gas en el seno de un
líquido, donde generalmente es preferible emplear la igualdad de coeficientes de transferencia
de masa o en los procesos biotecnológicos muy sensibles al esfuerzo cortante, en los cuales
se debe asegurar en el escalado que no se sobrepase el esfuerzo cortante máximo permisible
para el caso específico.
Si no se está en presencia de esos casos específicos, pero el análisis de los valores
obtenidos con el escalado a igual P/V muestra la conveniencia de modificar los valores
obtenidos en la capacidad de bombeo, tiempo de mezclado o esfuerzo cortante, puede probarse
Con relación al incremento de las relaciones (D/T) en los prototipos es necesario tener
en cuenta que impelentes grandes que se mueven a bajas velocidades requieren un torque mayor
para la potencia seleccionada y ésto puede hacer que el reductor requerido sea muy voluminoso y
se encarezca el conjunto motriz del agitador, aunque la potencia del motor sea menor (22).
Todos estos factores deben ser sopesados cuidadosamente durante el proceso de escalado y se
deben tener en cuenta, cuando se tengan disponibles, las referencias en la literatura sobre el
proceso en estudio, las experienias de planta y as sugerencias del vendedor, ya que no se
puede contar con reglas de escalado universales, dada la gran variedad de condiciones que
pueden existir.
Otro elemento a considerar es que nornmalmente no es necesario mantener una relación
(Z/T)constante en la planta piloto, pudiendose utilizar, por ejemplo, un impelente único en el
eje del agitador, aún cuando en la aplicación comercial se empleen múltiples impelentes en
el mismo eje, aunque existen algunos casos en que el cambio de profundidad puede causar
problemas en el escalado, al variar la presión absoluta en el fondo del recipiente y afectar
procesos de despojamiento de gases (22).
En general en los estudios de escalado en tanques agitados, el ingeniero debe de decidir el
tipo de corridas experimentales que debe hacer, si no cuenta con suficiente información, así
como la velocidad aproximada que debera emplear en las pruebas y los datos que necesita
obtener de los experimentos. Cada tipo de proceso es diferente y por ello los métodos y los
elementos a emplear en las corridas experimentales pueden variar mucho. No es posible
relacionar una serie simple de experimentos que puedan cubrir todas las posibilidades.
En muchas ocasiones la necesidad de obtener un conocimiento detallado del proceso,
lleva a convertir el equipo de mezclado de una pequeña instalación piloto en un equipo de
mezclado muy ineficiente y no deberá tenerse temor de que esto ocurra, si de esa forma es
posible acopiar el conocimiento suficiente sobre las características del proceso, que permita
seleccionar el método de escalado más adecuado. De no hacerse ésto pudiera pasarse por alto el
efecto de importantes variables durante las corridas de laboratorio y planta piloto, lo que puede
provocar posteriormente que los resultados obtenidos con los tanques a gran escala difieran
sensiblemente de los de pequeña escala y resulte, por lo tanto, fallido el escalado.
3.2 Escalado de los reactores químicos
Se comenzará por el análisis de los procesos de una sola fase, mucho más simples y después
se analizarán procesos de dos fases (gaseosa y líquida) y finalmente los más complejos, los
procesos catalíticos. En cada caso es fundamental analizar la importancia relativa que los
distintos fenómenos (cinética química, transferencia de masa y transferencia de calor)
tienen en cada tipo de procesos y la utilidad que tienen en cada caso los principales
medios y métodos empleados durante el escalado (laboratorio, planta piloto, mockups y
modelos matemáticos) (29).
Se comenzará por el análisis de los procesos de una sola fase, mucho más simples y
después se analizarán procesos de dos fases (gaseosa y líquida) y finalmente los más
complejos, los procesos catalíticos. En cada caso es fundamental analizar la importancia
relativa que los distintos fenómenos (cinética química, transferencia de masa y
transferencia de calor) tienen en cada tipo de procesos y la utilidad que tienen en cada
caso los principales medios y métodos empleados durante el escalado (laboratorio, planta
piloto, mockups y modelos matemáticos) (29).
Para ejemplificar la aplicación de esos métodos, se analizarán un grupo de reactores de la
industria de refinación de petróleo, pero de hecho los problemas a resolver son similares en los
distintos tipos de procesos y las metodologías presentadas son por lo tanto aplicables igualmente
a otros procesos químicos.
Reactores discontinuos.
El escalado de los reactores discontinuos en la mayoría de los casos se lleva a cabo
multiplicando el volumen de reacción por el factor de escala y no requiere el empleo de
plantas piloto ni mockups, aunque la transferencia de calor puede ser importante en ocasiones.
En esos casos hay que adecuar la capacidad de transferencia de calor del reactor escalado
para que sea capaz de asimilar el calor producido por la reacción.
Cuando las reacciones son extremadamente exotérmicas, como es el caso de la
polimerización, una insuficiencia en el área de intercambio de calor puede causar
inestabilidad o incluso explosión, por lo cual para esos casos los datos termocinéticos deben
de ser calculados con precisión en las etapas de laboratorio y banco, siendo
recomendables para ello el uso de reactores calorimétricos automáticos como el RC-1 de la
firma Mettler (14, 15, 33).
Este tipo de reactor se usa principalmente para las reacciones en fase líquida, y su escalado
conlleva muy frecuentemente la transposición de los experimentos a pequeña escala
realizados de forma discontinua, a reactores continuos de una sola etapa o de varias etapas
agitadas en serie (10). Esta transposición es relativamente simple si se puede obtener un
modelo del sistema de la reacción, durante los experimentos a pequeña escala (2, 32).
Como ejemplo podemos considerar el proceso de dimerización de olefinas, desarrollado
por el Instituto Francés del Petróleo (IFP) (29), en el cual las reacciones ocurren en presencia
de un catalizador del tipo homogéneo, confeccionado a partir de un compuesto de níquel, un
compuesto de coordinación y un haluro de alquil aluminio, manteniéndose todos en una
fase líquida homogénea. Este proceso puede ser explotado en dos variantes: iniciando con
propileno para producir primero hexenos y adicionar éstos a la gasolina o iniciando con
propileno y butenos para producir heptenos y octenos y emplear los mismos en la oxo-
síntesis para la producción de alcoholes.
Para el desarrollo del proceso se partió de un modelo del sistema de reacciones, desarrolado a
partir de los resultados de los experimentos de laboratorio con un reactor discontinuo, el cual
fué la base para el escalado de las dos variantes de tipos de reactor seleccionadas para la
unidad industrial: un reactor perfectamente agitado como etapa única, para la producción de
hexenos y varias etapas en serie (3 ó 4) para la producción de heptenos y octenos.
En este caso fue necesaria la construcción de una pequeña planta piloto, aunque su objetivo
no fué resolver los problemas de escalado propiamente dichos, sino evaluar
consideraciones con respecto al catalizador, como son: remoción del catalizador a la salida del
reactor; riesgos de depósitos de material catalítico en las paredes, que pueden afectar la
transferencia de calor a través de las mismas y el efecto de las impurezas de la
alimentación en la actividad del catalizador. La planta piloto sirvió también para producir
muestras para pruebas.
Para disminuir la caída de presión a través de la cama de catalizador se adoptó una tecnología
de flujo cruzado, con un reactor de la forma mostrada en la figura 3.7 (Tambouze, 1990).
Figura 3.7 Reactor de cama móvil con flujo cruzado (De Trambouze, 1990).
El trabajo requerido para el desarrollo de una unidad de proceso basada en esa tecnología
incluyó (29, 30):
-Mejora de la resistencia mecánica de los catalizadores sin detrimento de la calidad de los
mismos.
-Optimización de las condiciones de operación para mejorar el rendimiento de la
regeneración.
-Estudio de la transferencia neumática del catalizador.
-Detallar el diseño de los reactores de cama movil.
-Diseñar válvulas aislantes de catalizador que fuesen herméticas al hidrógeno.
Los primeros dos objetivos se investigaron en unidades piloto de reformación construídas al
efecto, las tres últimas requirieron del uso de mockups y en el caso particular del último de
los objetivos, las investigaciones culminaron con pruebas a gran escala bajo condiciones
reales de operación.
En particular nel diseño detallado del reactor conllevó un estudio detallado de las
interacciones gas-sólido y para ello se dieron los pasos siguientes:
-Empleo de una pequeña unidad de laboratorio de unos pocos centímetros de tamaño para
mostrar los efectos tales como el amasado del catalizador contra los tamices en la salida
del gas.
-Un mockup rectangular capaz de cargar hasta 350 L de catalizador, para un estudio
preliminar de la relación entre el espesor de la cama compactada y la caída de presión en la fse
gaseosa.
-Un mockup del tamaño y forma del reactor industrial planeado, aunque limitado a sólo un
sector del cilindro para reducir los volúmenes de catalizador y de gas a recircular y con una de
las caras hechas de Plexiglas de forma que se pudiera observar el flujo de sólidos mediantes
técnicas de trazado. El volumen de sólido total en ese mockup era de 2.5 m (Figura 3.8).
En el trabajo con los mockups, se emplearon como fase sólida los mismos gránulos que
sirven de soporte al catalizador, la fase gaseosa fué el aire y las condiciones de operación
fueron la temperatura y presión ambientales. De esa forma, gracias a una serie de mediciones
y modificaciones hechas en el mockup grande, a muy bajo costo, fué posible definir la forma
del reactor industrial y los valores máximos de flujos y caídas de presión.
Finalmente, combinando los resultados de las plantas piloto para las condiciones de
operación del reactor y del regenerador con los resultados de los mockups sobre los problemas
de transporte de sólidos e interacción gas-sólido, se estuvo en
condiciones de diseñar y construir la primera unidad con esta tecnología, a una escala modesta
primero (1/10 de las plantas industriales comunes) y a la escala normal después, convirtiéndose
en una tecnología aceptada a nivel mundial y en franco desarrollo.
CAPÍTULO 4
Escalado de los Procesos Biotecnológicos
4.1 Introducción.
El único hecho incontrovertido acerca del Escalado de los Procesos Biotecnológicos en
general y de los Bioreactores en particular , es que es una de las tareas más complejas en el
campo de la Ingeniería Bioquímica, que constituye un empeño retador para los especialistas de
la rama. Teniendo en cuenta la enorme complejidad de esta tarea, resulta conveniente dividirla
en dos problemas básicos (Figura 4.1), ( Reuss, 1993):
Figura 4.2 Agitador rotatorio orbital con control de temperatura para la etapa de
laboratorio (Catálogo Bioblokc).
Figura 4.5 Mini reactor de laboratorio para células inmovilizadas (Catálogo New
Brunswick).
Figura 4.8 Fermentador de banco con fondo y tope de inoxidable, agitado por el fondo
(Catálogo Bio Lafitte).
Figura 4.11. Fermentador para cultivos celulares con adición de varios tipos de
gases (De Beck et al, 1987).
En todos los casos las tareas principales a desarrollar son las mismas (Capítulo 1): Seleccionar
el procedimiento d edesarrollo de inóculos, esterilización del medio, aireación y agitación;
Determinación de los modelos cinéticos del proceso y sus coeficientes específicos ; Realizar
ajustes de variables como la razón de transferencia de oxígeno, la evolución de dióxido de
carabono, producción de biomasa, biosíntesis de metabolitos y efectos de pH; Estudio del
régimen de allimentación continua o incrementada; Selección de alternativas de control e
instrumentación y Realización de la evaluación económica preliminar del proceso.
instalaciones piloto,
Figura 4.12 Fermentadores de escala
piloto y semi industrial (Catálogo Bio-
lafitte).
equipos de tamaño bastante reducido (Figura 4.13), pero en todos los casos el requisito
fundamental es que puedan obtenerse cantides apreciables de producto que permitan realizar las
pruebas necesarias y aseguren que no se tendrán cambios en las especificaciones de calidad
cuando se pase a la escala industrial.
Figura 4.13. Mini Planta Piloto para la producción de anticuerpos monoclonales (Catálogo
New Brunswick).
que sea posible y además mantener constante un criterio dado, tales como la potencia por unidad
de volumen, el coeficiente volumétrico de transferencia de masa ,
el tiempo de circulación, etc. (Tabla 4.1) (Reuss y Bajpai, 1993).
La lógica que respalda estos criterios se basa en que preservar uno de estos criterios significa
mantener la constancia de las características correspondientes del ambiente extracelular en las
diferentes escalas. Por lo cual, si esa propiedad ambiental es una de las que más críticamente
influencian la deseada productividad microbiana, se obtiene por consiguiente un escalado exitoso
y en la realidad un número de sistemas microbianos están en acuerdo con esas técnicas y
permiten una operación en la escala industrial razonablemente de acuerdo con la establecida en
las escalas de banco y piloto.
Sin embargo, es fácil de apreciar que esos criterios son mutuamente exclusivos y, por
consiguiente, no permiten una replicación exacta de la semejanza ambiental en dos escalas
diferentes cualesquiera. Bajo tales circunstancias, el comportamiento de los microorganismos en
diferentes fermentadores permence incierto. De hecho el uso de propiedades volumétricas como
criterio de escalado, demanda una garantía de uniformidad de propiedades a través del sistema,
algo que puede resultar imposible, incluso en un bioreactor pequeño (Reuss y Bajpai, 1993).
Tabla 4.1 Criterios más empleados para el escalado de Bioreactores tipo tanque agitado
(Tomado de Reuss, 1993).
Coeficiente volumétrico de kLaL
transferencia de O2
Consumo de Potencia por P/VL
unidad de volumen
Velocidad en la punta del NDi
Impelente
Velocidad de agitación N
Tiempo de mezclado
terminal
Los bioreactores se caracterizan por las interacciones complejas entre los fenómenos de
transporte y la cinética microbiana y esto determina su rendimiento. Sin embargo, mientras la
cinética microbiana no es dependiente de la escala, los procesos de transporte si lo son. Como
resultado los problemas de escalado pueden asociarse a las actividades críticas en el dominio de
los procesos de transporte y la identificación de esas actividades críticas se puede llevar a cabo
comparando las diferentes constantes de tiempo, como se muestra en la Tabla 4.2. Un análisis de
ese tipo lleva a la conclusión de que en diversos bioprocesos la distribución de masa y/o energía
es frecuentemente la actividad crítica que afecta el ambiente extracelular en un bioreactor.
No obstante, el hecho de que la determinación de las constantes de tiempo requiere el empleo
de correlaciones empíricas, como las de determinación del coeficiente kLaL, el éxito de estos
análisis depende mucho de la calidad de las correlaciones utilizadas, lo cual en muchos casos es
cuestionable (Reuss, 1993). Por esta causa, en la práctica, a pesar de las limitaciones antes
señaladas, el empleo de una de las técnicas mostradas en la Tabla 6.1sigue siendo hasta ahora la
variante más empleada en los procesos de escalado de bioreactores.
Como comparación, a continuación se presentan las constantes de tiempo de los procesos
cinéticos que ocurren en un bioreactor (Tabla 4.3)
En ese caso, el proceso de escalado conlleva los siguientes requerimientos:
1. Selección de un índice de rendimiento
2. Elección de una ecuación apropiada para estimar las condiciones de operación y
garantizar mantener la propiedad seleccionada en escalas diferentes
3. Estimar las consecuencias de este proceso en otras variables claves, con la ayuda de
ecuaciones de translación adecuadas
Obviamente esto no es un enfoque directo sino más bien un proceso iterativo, para el cual es
prerrequisito un investigador con un buen sentido de la naturaleza física de los procesos
involucrados y experiencia de laboratoria. De particular importancia es realizar a intervalos,
durante el proceso de escalado ascendente, algunos experimentos de escalado descendente que
permitan chequear la influencia de los diversos efectos interdependientes (Reuss, 1993). También
es importante tener claro, como se ha señalado anteriormente que las correlaciones requeridas
casi nunca están disponibles o no son del todo confiables.
Tabla 4.2 Constantes de tiempo para diferentes procesos relacionados con los fenómenos de
transporte que ocurren en un bioreactor industrial (fermentación ácido glucónico)
Tomado de Reuss y Bajpai, 1993.
Procesos Ecuación Constante de
tiempo
Transf. masa
gas-líquido 5.5 - 11.2
Tiempo de
circulación 12.3
Tiempo 20.6
residencia del
gas
el escalado de los fermentadores tipo tanque agitado, al haberse priorizado en la mayoría de las
ocasiones las consideraciones con respecto a los agitadores. Esa menor atención ha hecho que
las recomendaciones hayan sido con frecuencia, imprecisas o no satisfactorias.
0.7 - 16
Consumo de
oxígeno
Utilización 5.5E+4
de sustrato
Creciminto 1.2E+4
de biomasa
Producción 350
de calor
Cabrera, 1976; Chisti y Moo-Young, 1991). La expresión que se recomienda emplear para este
método es una modificación, realizada por González en 1995, de la ecuación recomendada por
Rosabal (1988), a partir del desarrollo hecho por Aiba et al. (1970),:
(4.5)
en la cual UG es la velocidad superficial del gas, a través del área de la sección tansversal del
fermentador.
El otro elemento a tener en cuenta en este método de escalado es cuál expresión se debe de
utilizar para calcular el valor del coeficiente de transferencia, cuando esto es necesario, por
ejemplo, cuando se necesita trabajar un fermentador a un valor preestablecido del coeficiente de
transferncia. Sin embargo esto no es frecuente y en la práctica lo más común es conocer a qué
niveles de aireación y agaitación debe operarse un fermentador a una escala mayor (o menor),
conocidos los valores de esos parámetros en la escala de referencia. En esos casos, resulta
suficiente con aplicar la ecuación de escalado 4.5.
El cálculo del valor del coeficiente de trasnferencia puede ser necesario en el comienzo de la
etapa de banco, por ejemplo, cuando se quiere tener un punto de referencia para el inicio del
Diseño Experimental que se requiere. En ese caso resultan de utilidad las correlaciones mostradas
por Aiba (1970) , en las que se compara, por ejemplo, el rendimiento de levadura panadera para
difernts números de oxidación de sulfito (Figura 4.16)
y se obtiene que a partir de un valor de sulfito de 150 mm O2 /L/h el rendimiento no se afecta
apreciablemente, con independencia del tipo de fermentador y sistema de aireación.
Figura 4.16 Efecto del número de oxidación del sulfito en el rendimiento de la levadura panadera
(De Aita et al., 1970).
Se presenta también el rendimiento de la producción de estreptomicina (Figura 4.17) y el de
penicilina (4.18) versus el valor del número de oxidación del sulfito y el comportamiento es
similar, aunque para valores mucho más elevados del número de oxidación de sulfito, expresados
en esos casos el número de oxidación del sulfito como Kvp, o sea el producto del coeficiente
volumétrico de transferencia de masa por la presión media del aire de entrada, para poder corregir
el efecto que tiene la presión hidrodtática en los grandes fermentadores utilizados normalmente
para la producción de antibióticos.
Figura 4.17 Productividad de estreptomicina versus Kvp (De Karow et al, 1953).
Figura 4.18 Productividad de penicilian versus Kvp (De Karow et al., 1953)
Sin embargo el hongo Ustilago zeae,productor del ácido ustilágico, si bien se comporta
cualitativamente igual, presenta la constancia del rendimiebnto a partir de valores del número de
oxidación de sulfito más bajos, muy semejantes a los de la levadura panadera.
Figura 4.19 Efecto del número de sulfito en la producción de ácido ustilágico (De Aib a et al,
1970).
También se han encontrado casos cuyo comportamiento no es exactamente igual, como es el
caso de la producción bacteriana de vitamina B12 en la cual se comprobó un decrecimiento del
rendimiento después de alcanzado un óptimo, lo que puede deberse a la ocurrencia de daños a los
micrsoorganismos en los caldos de fermentación altamente turbulentos. El valor del número de
oxidación de sulfito equivalente al óptimo, fué sin embargo similar (250 mm O2/L/h ) al obtenido
para las levaduras (150 mm O2/L/h ) e inferior al de la producción de antibióticos (500- 600 mm
O2/L/h ).
Teniendo en cuenta esta información, se pueden comenzar las corridas experimentales de
levaduras, hongos y bacterias con el valor del número de oxidación de sulfito recomendado, pero
para esto se requiere contar con las correlaciones adecuadas, lo cual ofrece un grado de dificultad
adicional. No obstante, para cumplir con el objetivo de hallar un valor inicial para la
experimentación, puede aplicarse la correlación original propuesta por Cooper (1944) o algunas
de sus modificaciones posteriors (Reuss, 1993), teniendo en cuenta sus imprecisiones.
También puede hacerse uso de correlaciones más recientes, como las que se prssentan en el
trabajo de Reuuss (1993).
Tabla 4.3 Valores del tiempo de mezclado, t para diferentes velocidades del impelente en
recipientes de 5 y 40 000 L en la región turbulenta (De Aiba et al., 1970).
. Tiempo de mezclado, s
N (rpm) 3L 40 000 L
30 40 66
60 35 41
120 16 26
300 9 14
750 5 8
No obstante se considera más práctica aplicar el criterio antes mencionado de mantener constante
la relación
Con esta base, la ecuación para el criterio de igualdad del tiempo de mezclado, cuando los
equipos a escalar son semejantes geométricamente se reduce a la expresión (González,
1995) :
N' = N (6.6)
Del análisis de los resultados se corrobora el planteamiento hecho al inicio del Capítulo,que es
fácil de apreciar que estos criterios son mutuamente exclusivos y, por consiguiente, no permiten
una replicación exacta de la semejanza ambiental en dos escalas diferentes cualesquiera, por lo
cual debe hacerse un análisis cuidadoso acerca de cuál debe ser el criterio a aplicar. En la
práctica, sobre todo en las fermentaciones de levaduras y bacterias, se obtienen muy buenos
resultados empleando el criterio de mantener constante el coeficiente volumétrico de
transferencia de oxígeno ( kLaL), por lo cual este resulta el método recomendado para este tipo de
fermentaciones. El criterio de igual potencia por unidad de volumen también ha demostrado su
utilidad, sobre todo en las fermentaciones para la producción de antibióticos, por lo cual resulta
un criterio a ser considerado.
El criterio de mantener constante la razón de cizalladura debe emplearse solamente en los
casos en que el microorganismo resulte muy sensible a este parámetro y siempre y cuando el
rango de cambio de escala propuesto pueda afectarlo apreciablemente. En esos casos debe
tratarse, siempre que sea posible,de apartarse de la semejanza geométrica y utilizar en la
instalación industrial un impelente más grande que en la piloto (Oldshue, 1983 ), con lo cual se
puede obtener resultados muy favorables.
El criterio de igual potencia por unidad de volumen tiene como dificultad el incremento de la
razón de cizalladura y del tiempo de mezclado, cuando la relación de escalado es alta. lo que se
puede apreciar en la siguiente tabla.
Tabla 4.4 Variación del tiempo de mezclado con el escalado ascendente, manteniendo P/V
constante (De Aiba et al., 1970).
Factor de Factor de Relación
escala V2/V1 escala Dt2/Dt1 (t2/t1)
8 000 20 6.3
1 000 10 4.1
125 5 2.7
64 4 2.4
27 3 2.0
8 2 1.5
CAPITULO 5
cantidad de información útil obtenida por unidad de costo. Por consiguiente, es extremadamente
importante para una investigación utilizar métodos experimentales que le brinden la máxima
cantidad de información con el menor costo y esfuerzo. El uso del Diseño Estadístico de
Experimentos facilita un incremento apreciable en la productividad de los investigadores, así
como en la confiabilidad de los resultados obtenidos, siendo estos métodos, por su naturaleza
universal, adaptables a la mayoría de los campos actuales de investigación (González, E., 1980).
Con el Diseño Estadístico de Experimentos se pueden reducir al mínimo imprescindible las
experiencias que se deben realizar a Escala de Laboratorio y planificar adecuadamente las
corridas en las escalas de banco y piloto, de forma tal de obtener la mayor cantidad posible de
información en el menor intervalo de tiempo. Con la Modelación Matemática se pueden reducir
las corridas necesarias en las instalaciones de banco y piloto ya que se pueden realizar sólo las
corridas necesarias para obtener la información que se requiere para poner a punto los modelos
matemáticos del proceso y el resto de las investigaciones se pueden realizar mediante
simulaciones en computadora, con la exepción de un mínimo de corridas experimentales que se
realicen al final para corroborar los resultados de los modelos.
Aquí hay que señalar también que resulta evidente que el tipo de diseño a utilizar en cada
caso, depende del objetivo del experimento y del tipo de modelo que se desea obtener. Sobre la
base de estas consideraciones, se puede establecer una clasificación de las investigaciones
experimentales según Box, (Guerra y Sevilla, 1987):
1. Experimentos de tamizado: Cuando a partir de un gran número de variables hay que
identificar cuáles afectan el rendimiento.
2. Construcción de modelos empíricos : Para obtener una descripción aproximada de la
relación entre X e Y, en función de parámetros B.
3. Construcción de modelos determinísticos: Para determinar la verdadera relación
funcional que existe entre X e Y.
4. Ajuste del modelo determinístico: Para encontrar los mejores estimados de los
parámetros desconocidos en el modelo propuesto.
Los experimentos de tamizado deben hacerse al comienzo de un estudio experimental, cuando
hay numerosas variables que potencialmente pueden incluir en la respuesta. Es necesario
discriminar entre ellas las verdaderamente importante. Esta es la esencia de este tipo de
experimentos los que deben ser bien diseñados estadísticamente para poder determinar también
las interacciones entre las variables.
La construcción de modelos empíricos se hace necesario en aquellas situaciones en que no es
factible la obtención de un modelo determinístico. En esas situaciones resulta útil, un modelo
aproximado que representa adecuadamente el comportamiento del proceso bajo estudio en a
región de interés. Los modelos determinísticos, por otra parte, casi siempre son no lineales y la
estimación de los parámetros de los mismos puede resultar difícil.
Por lo tanto, el objetivo de las investigaciones generalmente es establecer un modelo
matemático del proceso y pueden haber dos casos (Köllner, 1973):
1. El modelo se puede desarrollar teóricamente y por ello en el trabajo experimental sólo se
Por lo antes expuesto y dada la importancia que tienen la Modelación Matemática y el Diseño
Estadístico de Experimentos para este objetivo, este Capítulo se dedicará totalmente a repasar los
conceptos fundamentales de estas técnicas, enfatizando en su realización práctica mediante la
utilización de los software especializados como el BioPro Designer para la simulación de los
procesos industriales biotecnológicos y el STATGRAPHIC en sus versiones para DOS y para
Windows y el STATISTICA para Windows, para el Diseño de Experimentos.
Por otra parte, los experimentos que se requieren para la aplicación de las técnicas del Diseño
Estadístico de Experimentos, se tomarán principalmente de ejemplos de los Procesos de la
Industria Biotecnológica y en lugar de la ejecución real de los experimentos se realizarán
simulaciones en computadora, con el empleo de modelos matemáticos desarrollados al efecto
(González, R., 1996).
5.2 Simulación Matemática de los procesos Industriales.
5.2.1 Definiciones fundamentales.
Se define sistema como un conjunto de elementos en el cual todos se encuentran tan
estrechamente vinculados entre sí, que en relación con las condiciones circundantes se presentan
como un todo único. Existen muchos tipos de sistemas, pero en este capítulo estudiaremos los
sistemas de los Procesos Industriales. , definidos éstos como el conjunto de procesos físicos,
químicos, bioquímicos y microbiológicos, relacionados con la obtención de un producto o un
grupo de productos dados .
Para el estudio de los sistemas resultan fundamentales los conceptos de modelo y simulación.
Por modelo se define la representación (imagen) de una realidad objetiva, a una escala igual o
diferente a la original y, los mismos pueden ser de diferentes tipos: analógicos, físicos,
matemáticos, siendo en este caso de especial interés los modelos matemáticos. Por simulación se
entiende el estudio de un sistema mediante uno o más modelos, y si los modelos a emplear son
matemáticos, se tiene entonces una simulación matemática.
Otra definición de simulación ( González, V., 1987), es la que plantea que la simulación es un
procedimiento para la realización de experimentos por medio de una computadora digital y con
la ayuda de modelos matemáticos, con el fin de obtener información sobre el comportamiento del
sistema. En general, mediante las técnica de simulación se pueden analizar el efecto de las
interrelaciones de un sistema o proceso dado, determinar las recirculaciones (de materiales,
energía o información), hacer estudios de capacidad, detectar cuellos de botella, definir las
una opción muy cara para los usuarios cuyo único interés es la Biotecnología (González, R. A et
al, 1995). Una opción mejor es utilizar un simulador específico y para ello se cuenta desde hace
poco tiempo con el BioPro Designer, desarrollado en el MIT y actualmente en explotación
comercial (Aelion y Petrides, 1994).
El BioPro Designer tiene las siguientes características:
Figura 5.2 Ambiente de trabajo del BioPro Designer (De Aelion y Petrides, 1994).
Figura 5.3 Menú Tasks para el desarrollo interactivo de los diagramas de flujos en el
BioPro Designer (De Aelio y Petrides, 1994)..
Operaciones Unitarias.
El BioPro Designer ofrece una amplia variedad de Operaciones Unitarias utilizadas en las
industrias bioquímica, farmacéutica y otras industrias de proceso. En la tabla 5.1 se muestra una
relación de las operaciones unitarias disponibles actualmente. Los modelos de todas esas
Operaciones Unitarias son algebraicos y pueden ser especificados tanto para estado estacionario
como para operaciones discontinuas o discontinuas incrementadas. Muchos de los parámetros de
diseño y condiciones de operación de dichas Operaciones Unitarias tienen valores por defecto, lo
que facilita una inicialización rápida y un bosquejo preliminar rápido de las distintas alternativas
de operación.
Un modelo típico es el de un diafiltro (Figura 5.4). Un diafiltro es un equipo que emplea
membranas de separación para mejorar la purificación de sólidos retenidos, al cual se le añade un
solvente para ayudar a remover las especies permeables a la membrana. Estos equipos trabajan
Tabla 5.1 Operaciones Unitarias en el BioPro Designer (Tomado de Aelion y Petrides,
1994).
operación discontinua, los solutos permeables se clarifican del retenido por reducción de
volumen, a lo que sigue re-dilución y re-filtración, de forma repetitiva. Cuando en cada etapa
ocurre una reducción de volumen igual ocurre, la fracción final de un componente (Fi) que
permanece en el retenido se estima por la siguiente ecuación:
(5.1)
Figura 5.4 Icono para un diafiltro en el BioPro Designer (Aelion y Petrides, 1994).
(5.2)
donde Vo es el volumen de alimentación inicial. El valor del volumen de diluyente se utiliza para
ajustar la tasa de flujo de la corriente de diluyente.
En el caso de la operación continua, esta conlleva la adición de solvente con un pH y
temperatura apropiados, al tanque de alimentación a la misma tasa que el flux de permeado, de
forma tal de que se mantenga constante el volumen de alimentación durante el proceso. Los
solutos permeables se eliminan a la misma tasa que el flux. Este modo de diafiltración es
particularmente útil cuando la concentración del soluto retenido es muy alta para permitir una
efectiva operación de diafiltración discontinua. La fracción de soluto que queda en el retenido se
estima por la siguiente ecuación:
(5.3)
donde (VPR) es la relación de permeación volumétrica. definida de la forma siguiente:
(5.4)
A su vez, el volumen de agua u otro solvente requerido para la dilución se estima por la
siguiente ecuación:
(5.5)
Figura 5.4 (a-b) Caja de diálogo para un Diafiltro en el BioPro Designer (De Aelion
yPetrides, 1994).
5.3 Conceptos básicos del Diseño Estadístico de Experimentos.
El Diseño de un Experimento consiste en planificar los experimentos de la forma más
racional posible, de manera que los datos obtenidos puedan ser procesados adecuadamente y
que mediante un análisis objetivo conduzcan a deducciones aceptables del problema planteado,
para lo cual se sobreentiende que la persona que formula el diseño conozca los objetivos de la
investigación propuesta.
Antes de comenzar el trabajo experimental se debe, por lo tanto, tener la información
requerida del sistema que permita contestar a las interrogantes siguientes:
1. ¿Cuáles son las propiedades de sistema que se van a estudiar?, o sea los llamados
rendimientos o variables dependientes.
2. ¿Qué factores afectan a estos rendimientos?, es decir qué parámetros o variables
En general se puede decir que hay tres principios básicos del Diseño Experimental:
Reproducción : Es la repetición del experimento básico para estimar el error puro o
aleatorio, que permitirá determinar si las diferencias observadas son significativas o no.
Aleatorización: En la mayoría de las pruebas estadísticas se supone que las muestras son
independientes unas de otras y que sólo están afectadas por los parámetros que se controlan.
Para garantizar esto se requiere tomar las muestras al azar o aleatoriamente de la población
investigada.
Control local: Se refiere implícitamente, en primer lugar, al tipo de diseño experimental
que se haya realizado y en segundo lugar a las medidas que se tomar para controlar el proceso
experimental como por ejemplo:
1- Utilizar material o bloqueo experimental homogéneo para la estratificación
cuidadosa del
material disponible.
2- Dirigir el experimento cuidadosamente.
3- Considerar las posibles variantes aleatorias
4- Emplear las técnicas analíticas y los equipos de control más adecuados.
Por último se debe señalar que es conveniente discernir dos grandes campos del Diseño
Estadístico Experimental, por una parte las Ciencias Biológicas y Agrícolas, en las que se utilizan
principalmente los diseños completamente al azar, bloques al azar y los cuadrados latinos y por
otra parte las Ciencias Técnicas, Química, Física y Farmacéuticas y algunos campos de las
Ciencias Biológicas como la Microbiología y la Genética Microbiana, en las cuales existe la
posibilidad de controlar un número finito de variables, en cuyo caso se emplean principalmente
los Diseños Factoriales.
En este Capítulo se dará sólo una visión breve y general del Diseño Experimental en Biología
y Agronomía y se estudiará con más detalles el Diseño Experimental aplicable a las Ciencias
Técnicas, Física, Química y Farmacéutica y la Microbiología, haciendo énfasis en su aplicación
práctica mediante la utilización de los paquetes de programas estadísticos especializados. Para un
análisis más detallado del Diseño Experimental en el campo de la Biología y la Agronomía se
deben consultar textos especializados como "La Experimentación en las Ciencias Biológicas y
Agrícolas ", (Lerch ,1977).
Bloque Tratamiento
1 H B F A C I E J D G
2 A I G H J D F E C B
3 E A C I B H D G J F
4 J F D B H I A C G E
Franja Parcela
1 C A E B D
2 B E D A C
3 D C B E A
4 E D A C B
5 A B C D E
Introducción.
En este campo de trabajo es usual trabajar con pocas variables, conocidas y casi siempre
controlables, por lo que se planifican los experimentos con vistas a obtener modelos matemáticos,
empíricos, o mecanísticos, que describan el sistema estudiado. Aquí es importante destacar que
este tipo de situaciones no se observa sólo en estas ciencias, sino que se observa también en
algunos campos de las ciencias biológicas, como por ejemplo en la microbiología y en la
genética microbiana.
En este punto resulta conveniente definir la palabra experimento, puesto que puede resultar
ambigua, al igual que otros términos utilizados en un diseño estadístico. En este tipo de
problemas, una corrida experimental (o simplemente una corrida como se nombra usualmente),
es simplemente un experimento único, mientras que un grupo de corridas, dirigidas hacia la
obtención de algún objetivo, se denomina Diseño Experimental o simplemente diseño.
La anatomía de una corrida se representa en la Figura 6.2 (Murphy, 1977). El resultado de la
corrida es una respuesta obtenida o observación hecha en una unidad experimental. El valor de la
respuesta para cualquier corrida, dependerá de los ajustes de una o más variables experimentales
o factores, los cuales están bajo el control directo del investigador.
tratarse también de llevar a formas discontinuas, pero muy frecuentemente se necesitan emplear
técnicas especiales para su manejo.
Los factores o variables independientes experimentales, son controladas por el experimentador
y el nivel de un factor es el valor fijado para el factor durante una corrida experimental. Al igual
que las respuestas, los factores pueden ser clasificados de acuerdo con la escala de medición,
como continuos o cuantitativos como el tiempo y la temperatura y cualitativos, discontinuos o
categóricos como el tipo de catalizador o solvente empleado. También en este caso son más
difíciles de manejar los discontinuos y la solución común es emplear dos niveles en el
experimento, definiendo con (+1) o simplemente con el signo (+) la presencia o el carácter
positivo del factor y con (-1) o con el signo (-), lo contrario.
Tamizado de Variables, cuando el interés debe centrarse en los factores que tienen un mayor
efecto en la respuesta Y. En ese caso, si b1 tiene un valor cercano a cero, se dice que el factor no
tiene un efecto significativo en la respuesta.
En general se tiene la tendencia a considerar que la relación factor/respuesta tiene una forma
curva y en ese caso se obtiene una mejor representación con la función de segundo orden (Figura
5.6):
(5.7)
Aquí es posible determinar un óptimo grosero, localizado en un nivel del factor igual a -
B1/2B11. Por su parte, al coeficiente B11 se le denomina coeficiente de curvatura. Si B11 es
cercano a cero, se dice entonces que la respuesta no tiene curvatura y por ello es
aproximadamente de primer orden, es decir lineal, con respecto al factor X.
Para el caso de la existencia de dos o más factores, puede existir una situación más complicada
conocida como interacción, lo que significa que los factores no operan independientemente sobre
la respuesta. En el caso de que exista independencia en lugar de interacción, se dice entonces que
los factores son aditivos. Cuando no hay o es muy poca la curvatura con respecto a cualquiera
de los factores, el modelo más simple para dos factores es:
(5.8)
en el cual B1 y B2 son las pendientes correspondientes a los factores X1 y X2, respectivamente,
mientras que B12 es el parámetro de interacción y cuando el mismo se hace cero, se está en
presencia de un modelo aditivo de primer orden. En ese caso cuando se grafica Y vs. X1 para dos
valores constantes de X2 cualesquiera, se obtienen dos líneas rectas paralelas (Figura 6.5).
Cuando el término B12 tiene un valor distinto de cero el modelo es interactivo. En ese caso un
gráfico de Y vs. X1 para dos valores constantes de X2 produce dos líneas rectas no pararelas
(Figura 6.6).
Cuando la relación existente entre la respuesta y un factor es de forma curva, entonces debe
añadirse un término cuadrático o de curvatura. En ese caso el modelo completo de segundo
orden sería:
(5.9)
Este tipo de modelos puede brindar una excelente descripción de la respuesta dentro de la
región de experimentación y puede usar para propósitos de interpolación o para encontrar un
óptimo interno grosero, si éste existe. En la figura 6.7 se presenta un gráfico de Y vs. X1 para
valores constantes de X2. Otra forma útil de presentar esta relación es mediante un mapeo de los
contornos de la superficie respuesta Y sobre el espacio factorial definido por los valores de X1 y
de X2 (Figura 6.8). Este gráfico indica una respuesta máxima cerca del centro del espacio
factorial. Sin embargo, es importante enfatizar que este tipo de modelos empíricos de segundo
orden, son muy poco confiables para predicciones fuera del rango de experimentación en que han
sido ajustados.
Para el caso general de n factores, el modelo empírico general de segundo orden será:
(5.10)
el cual tiene parámetros a ser estimado. Puesto que este número de parámetros
puede llegar a ser muy grande rápidamente cuando se incrementa n, generalmente se asume un
modelo más sencillo (por ejemplo un modelo de primer orden) al inicio de la investigación,
cuando el número de factores considerados es muy elevado y cuando el número de factores se va
reduciendo, el modelo se puede ampliar a uno de segundo orden, parcial o total o incluso a un
modelo teórico (determinístico).
Otro elemento importante a considerar es la selección del nivel de los factores, ya que un
Diseño Experimental consiste precisamente en un conjunto de corridas experimentales, cada una
de ellas definidas como una combinación de los niveles de los factores. La elección de estos
niveles es influenciada considerablemente por el tipo de modelo matemático en consideración.
Por consiguiente un Diseño Experimental se determina por el número y tipo de los factores en
unión con el tipo de modelo a emplear.
Para el caso más simple, de un factor único y un modelo de primer orden, sólo son necesarios
dos niveles del factor para estimar los parámetros B1 y B0. En esta discusión esos dos valores se
pueden codificar como alto y bajo o (+1) y (-1) o simplemente (+) y (-). El cambio en la
respuesta entre esos dos niveles se denomina el efecto principal del factor (Figura 6.9). Como el
error aleatorio puede fácilmente oscurecer el efecto principal si los niveles se toman muy
cercanos, el efecto principal puede ser estimado de manera más precisa si los factores se ajustan
a niveles suficientemente separados.
Si se considera un modelo de segundo orden, se necesita un tercer nivel del factor para estimar
el parámetro de curvatura B11. Ese tercer nivel normalmente se sitúa a medio camino entre los
niveles extremos del factor y se denomina como punto central y se codifica como medio o (0).
El efecto de curvatura se define entonces como la diferencia entre la respuesta experimental del
punto central y la respuesta esperada de un modelo de primer orden que se ajuste a los puntos
extremos (Figura 6.10).
En la práctica es difícil que se necesiten más de tres o cuatro niveles para un factor, excepto en
los casos en que se trata de seleccionar el mejor modelo teórico a emplear y pueden ser
necesarios entonces más niveles de los factores para poder seleccionar entre muchos modelos
candidatos (Murphy, 1977).
Para más de un factor, cada corrida experimental se define como una combinación de niveles
de factores. Por ejemplo, en el caso de dos factores, el efecto de interacción debe ser estimado de
forma adicional a los dos efectos principales y para ello el mínimo número de corridas debe ser
cuatro, puesto que se deben estimar las dos pendientes de la relación Y vs. X1 y comparar esas
pendientes a dos valores de X2 para chequear si hay o no interacción. Si el efecto de interacción
es cero, las líneas son paralelas, como ocurre en la Figura 6.5.
Las cuatro corridas mencionadas anteriormente se conocen como un Diseño Factorial 22 y es
un miembro de la clase de diseños conocida como Factoriales 2n, o sea n factores por corrida,
cada uno de los cuales se evalúa a dos niveles y se tienen en cuenta todas las combinaciones
posibles entre dichos niveles y factores. Las combinaciones de niveles factoriales en los diseños
22 y 23 se presentan en las figuras 6.11 y 6.12, representadas
.como las esquinas de un cuadrado y un cubo respectivamente.
Figura 5.18 Ubicación de puntos de réplica en el centro del diseño (Murphy, 1977).
Si la corrida en el punto central detecta un efecto de curvatura global apreciable, se deberán
realizar entonces corridas adicionales para obtener estimados separados del efecto de curvatura
para cada factor. Esas corridas adicionales se conocen como puntos axiales o de estrella y cuando
se combinan con los diseños 2n más el punto central, constituyen los denominados Diseños
Compuestos Centrales (Figura 5.18). En esos casos los puntos de estrella o axiales están
localizados a una distancia del punto central, la cual varía desde 1 hasta 2n/4, donde n es el número
de factores.
Una de las mayores desventajas de los Diseños Factoriales 2n es el gran número de corridas
que se necesita cuando n se incrementa. Para resolver este problema, se utilizan determinadas
fracciones o subconjuntos de los Diseños Factoriales Completos. Esos Diseños Factoriales
Fraccionarios, se utilizan principalmente durante la etapa de Tamizado de las Variables, y
pueden ser posteriormente expandidos a fracciones mayores o incluso al diseño completo, cuando
el número de variables se ha reducido convenientemente. En la figura 6.16 se presenta un
ejemplo de una Fracción 1/2 del Factorial 23, conocida también como factorial 23-1, en la cual
cualquiera de los dos conjuntos de 4 corridas puede dar un estimado de los efectos principales de
un modelo de primer orden en tres factores.
También se emplea un variante de los Diseños Factoriales Fraccionarios conocida como
Diseños Saturados, en los cuales se pueden tratar (n-1) factores con n experimentos, o una
variante de los mismos conocida como Diseños Plackett-Burman, en los cuales se tratan un
número algo menor, o sea (n-2) o (n-4) factores, para dejar de 2 a 4 columnas no asignadas para
evaluar grupos de interacciones (Murphy, 1977; López, 1988). Este tipo de diseño es muy útil y
muy empleado en la etapa del Tamizado de Variables. Algo más recientemente se han
comenzado a aplicar las Técnicas de Diseño Robusto de Taguchi ( ), también para un gran
número de variables, las cuales a su vez toman como punto de partida diversos tipos de Diseños
Ortogonales.
Tamaño del Diseño Experimental.
La precisión de un estimado de efecto principal, interacción o curvatura depende del número
de datos que se utilice en dicho estimado, en unión a la magnitud del error de la respuesta . En un
diseño 2n, se emplean todos las corridas para estimar los efectos principales y la interacción y por
ello el experimentador debe de fijar el número total de corridas N requeridas para alcanzar la
precisión deseada.
Para hacer esto, el experimentador determina el mínimo cambio de la respuesta que resulta de
interés técnico en la investigación en particular que se está llevando a cabo, el que se denota por
el símbolo . El experimento debe ser capaz de brindar esa respuesta, si existe, de manera tal que
la misma pueda ser declarada estadísticamente significativa con un alto grado de probabilidad.
Para esto se toma como base la relación /, desarrollada por estadísticos y mostrada en la Figura
5.19.
Orden de la experimentación.
Para prevenir las tendencias sistemáticas de variables no controladas o desconocidas, durante
la ejecución del diseño, es prudente realizar de forma aleatoria las distintas corridas. Esto se
puede hacer utilizando cualquier proceso de generación de números aleatorios o mediante el
empleo de boletas numeradas en una caja, las que se van extrayendo al azar y definen el orden del
experimento.
También hay que considerar que las unidades experimentales no siempre son homogéneas y
que pueden diferir producto de alguna variable no controlada conocida. Esta situación requiere
que las unidades experimentales sean segregadas en bloques de unidades experimentales
homogéneas. Cada bloque puede ser considerado como un nivel de una variable extraña o de
bloque. Ejemplos de variables de bloque son las templas de materiales, el tipo de equipamiento,
la estacionalidad, etc.
El tamaño del bloque es el mínimo número de experimentos disponible en un bloque. Si el
tamaño del bloque es igual o mayor que la mitad de las corridas en un Diseño Factorial,
Completo o Fraccionario, el factor de bloqueo puede incluirse simplemente como otro factor en
el diseño.
Plackett - Burman. En la figura 6. 18, se presenta el rango de aplicabilidad de los tres primeros
(Factoriales Completos, Factoriales Fraccionarios y Diseños Saturados).
Con ese tipo de diseños se pueden estimar los efectos principales y el efecto global de
curvatura y, en ciertos casos, grupos de interacciones. Después, en dependencia de los resultados
experimentales, estos diseños se pueden aumentar para expandir el rango de los factores
existentes y para estimar parámetros de modelos de orden mayor al segundo, en la etapa de
optimización. De esa forma, las investigaciones pueden desarrollarse en etapas, y los objetivos
experimentales pueden cambiar de acuerdo con los resultados de las etapas anteriores.
Durante esta etapa de tamizado de variables, el énfasis primario se hace en la identificación
de los factores más importantes y como tarea secundaria se tiene la detección grosera de los
efectos de segundo orden (curvatura e interacción), así como obtener mejores estimados del error
de la respuesta para su uso en las etapas posteriores de la experimentación y estos objetivos se
reflejan en el tipo de modelo seleccionado, el cual es siempre de primer orden, con la adición de
los efectos de interacción y curvatura, los cuales se miden de forma indirecta, ya que no son
considerados en el modelo.
Resulta evidente que la determinación de la manera de combinar los factores y niveles y la
selección entre ellas de la variante más adecuada para cumplir con los objetivos de una
investigación, no resulta fácil de determinar cuando el número de factores es mayor de tres, pero
para facilitar esa tarea, así como la posterior evaluación de los resultados obtenidos, se cuenta
con paquetes de programas estadísticos como el STATGRAPHIC que determinan de forma
automática un grupo de combinaciones de factores y niveles necesarios, entre las cuales puede el
investigador seleccionar la que mejor se adapta a sus necesidades.
Después de escogido el diseño por este método se comienza el proceso de tamizado de las
variables. La operación de selección de las variables simplemente significa realizar pruebas de
significación de cada coeficiente estimado en el modelo ajustado. Si un parámetro estimado no es
significativamente diferente de cero, esto significa que las variaciones asociadas al factor, en el
intervalo seleccionado para el experimento en cuestión , produce un cambio despreciable en la
respuesta y por tanto ese factor no necesita ser considerado en la optimización posterior y puede
por lo tanto ser eliminado.
Ahora bien, en este punto hay que tener en cuenta que un valor muy bajo de un coeficiente
dado puede obtenerse también por las siguientes causas:
1. El nivel escogido para cada factor está cercano a un máximo condicional de la respuesta.
2. La magnitud del cambio para ese factor ha sido escogido desproporcionalmente pequeño.
La primera de esas causas será precisamente el criterio a utilizar en la búsqueda del óptimo en
los pasos de aproximación iniciales, como se verá más adelante y la segunda muestra una vez
más la importancia decisiva que tiene realizar desde el inicio una adecuada selección de la
magnitud del cambio a efectuar en cada factor, o sea sus niveles.
Como ejemplo de esta etapa del Diseño de los Experimentos se tiene el trabajo realizado por
Benítez y colaboradores (1995) para la selección de los factores más importantes en el proceso de
obtención de hecogenina a partir de la fermentación del jugo de henequén. En ese trabajo se
partió de siete factores, y se decidió estudiarlos en los niveles que se muestran en la Tabla 5.3.
Se aplicó un Diseño Saturado, con dos réplicas en el centro, con la ayuda del Statgraphics
Versión 6.1 y se obtuvo que las variables significativas son la temperatura y la agitación, por lo
cual se pudo pasar a la etapa posterior de optimización inicial y final.
En este caso particular, no fue necesario realizar la etapa de Optimización inicial debido a que
los niveles escogidos para el tamizado estaban precisamente en la zona del óptimo, por lo cual se
pudo pasar directamente a un Diseño Compuesto Central, para la realización del cual se
conservaron los resultados obtenidos en el Diseño Saturado utilizado en el Tamizado (Benítez et
al., 1995). (Los resultados obtenidos se verán en la Clase Práctica).
aplicando los Diseños Factoriales Completos 2n. En este caso se aplicaron tres diseños 23, hasta
que el último se amplió a un Diseño Compuesto Central, por presentar curvatura. No obstante, en
esa región no se encontraba tampoco el óptimo, por lo cual debían continuarse los experimentos.
(Los resultados obtenidos se verán en la clase práctica)
.Fase de Optimización final.
Esta fase requiere un modelo cuadrático completo para predecir con precisión el punto de
óptima respuesta:
(5.14)
donde m = n-1 y todos los términos del modelo deben ser estimados.
El tipo de diseño empleado en esta etapa es el Diseño Compuesto Central, el cual es
básicamente un Factorial 2n aumentado con los puntos centrales y los puntos estrella. Además se
pueden emplear también los diseños 3n y el diseño tipo Box y Behnken (Murphy, 1977), estando
estas tres opciones disponibles en el paquete de programas Statgraphics Versión 6.1.
Para el análisis final del óptimo, resulta útil obtener el gráfico de la Superficie Respuesta, así
como el Gráfico de los Contornos, los cuáles se obtienen también disponibles en el
STATGRAPHIC. Como ejemplo se tiene el proceso de optimización final realizado durante una
investigación para optimizar el medio de cultivo de Schizophyllyum commune para la obtención
de la enzima xilanasa (Haldricht et al., 1993).
En ese caso también se partió del tamizado inicial y del proceso de optimización inicial, para
finalmente alcanzar la región estacionaria donde estaba el óptimo. A manera de ejemplo se
muestra la forma de la superficie rspuesta obtenida, para dos de los factores principales. El resto
de los resultados se apreciarán durante la Clase Práctica correspondiente.
5.4 Utilización del paquete de programas estadistico Statgraphics para el Diseño Estadístico de
Experimentos.
En la versión 6.1 para DOS de este software, se cuenta con la opción Experimental Design,
dentro del Menú Quality. A su vez, Experimental Design presenta tres opciones: Screening
Design, Surfase Response Design y Surface Response Plotting. Con la opción Screening Design,
se realizan los Diseños Estadísticos de Experimentos para las fases de Tamizado de Variables y
de Optimización Gruesa, mientras que con la opción Surface Response Design, se realizan los
Diseños correspondiente a la fase de Optimización final. La opción Surface Response Plotting, es
simplemente una facilidad gráfica para obtener tanto las superficies respuesta como el gráfico de
los contornos para las funciones correspondientes, que se puede utilizar con independencia del
Diseño de Experimentos, ya que dentro de las opciones tanto de Screening Design como de
Surface Response Design, se cuenta también con las facilidades para ese tipo de gráficos, sin
necesidad de ir a la opción Surface Response Plotting.
El uso de este sofware se ilustrará con los ejemplos en el Laboratorio y clase práctica
correspondiente, para lo cual se emplearán las aulas especializadas de computación.
MATERIAL COMPLEMENTARIO
1- Programa SIMULFERM para simular la realización de los experimentos, de forma tal de
poder aplicar las técnicas estudiadas en casos diferentes a los ejemplos mostrados.
2- Ejemplo de aplicación del BioPro Designer.
CAPITULO 6
PLANTAS PILOTO
6.1 Introducción.
En los procesos de la industria química se han empleado las plantas de escala pequeña con dos
propósitos principales: como precursores de una planta de producción a escala completa, que no
ha sido aún construída, y para estudiar el comportamiento de una planta de producción existente,
de la cual la unidad pequeña es una reproducción.
En el primer caso se acostumbra denominar las plantas pequeñas como plantas piloto y en el
segundo caso se les denomina plantas modelo, aunque en realidad esta distinción no tiene mucha
importancia práctica. En muchas ocasiones una planta piloto se mantiene funcionando aún
después que se ha construído y puesto en marcha la unidad comercial de la que fue precursora y
pasa entonces esa planta pequeña a trabajar como planta modelo. A su vez, muchas plantas
modelo se utilizan para desarrollar variantes del proceso que modelan y llegan por tanto a ser
precursoras de una nueva planta o de la remodelación profunda de la planta industrial existente.
Además, desde el punto de vista de la Teoría de los Modelos y el escalado, no es importante si
el prototipo existe antes o después que el modelo y los procesos de scale-up y scale-down no son
más que partes de un único proceso de escalado (Capítulo 1). Por todo lo antes expuesto y
considerando la mayor complejidad de la tarea de desarrolar (o utilizar) una planta a escala
pequeña como planta piloto, este capítulo tratará en especial de ese tipo de plantas, con lo cual
se cubren también los objetivos requeridos para el desarrollo y utilización de las plantas modelo.
5.3.2 Instrumentación.
En los inicios del empleo de las plantas piloto sólo se necesitaba un termopar en el
líquido, otro en el espacio de vapor, un manómetro en el reactor y un amperímetro en el
motor del agitador. Entre otras cosas, determinaba el hecho de que no se disponía de tiempo
para graficar más puntos o correlacionar más variables.
En la actualidad, sin embargo, las capacidades modernas de procesamiento de datos
hacen posible recolectar, registrar y correlacionar cientos de datos en la unidad de tiempo;
emplear esa información para controlar el proceso y hacer que la misma esté disponible para el
diseño de la planta. Por esta causa la tendencia actual es medir prácticamente todo, de
manera de estar seguros que no se olvida ningún evento crítico.
Todo eso tiende a ser caro y frecuentemente llega a ser tan caro como su contraparte a escala
completa. Los sensores, indicadores, transmisores, controles, recolectores de datos y
computadoras cuestan prácticamente lo mismo si se emplean en una pequeña unidad piloto o en
una unidad de producción, aunque se producen algunos ahorros debido al número de unidades
empleadas, la longitud de las corridas de transmisión, el empleo de instalaciones temporales,
etc. (28, 41).
La selección del personal para dirigir y operar una planta piloto debe ser muy cuidadosa, en
consideración a la naturaleza especial de este trabajo, que trata siempre con procesos de
producción novedosos, de los cuales no hay experiencia previa. Al frente de la planta debe estar
un jefe de proyecto, el cual debe ser una persona a la cual le sea familiar tanto el proceso
químico como el equipamiento, capaz de supervisar la operación de la planta en su conjunto
(Figura 5.1).
Al equipo de dirección de la planta debe incorporarse un químico que haya sido miembro del
equipo de investigación de laboratorio que trabajó en esa etapa, de forma tal que el mismo
pueda dar asistencia diaria en cualquier problema relacionado con su especialidad, sobre
todo si la química del proceso es muy compleja, si hay procedimientos especiales de
operación y si hay involucrados riesgos no comunes. Esta persona deberá ser un puente entre el
colectivo que realizó el trabajo de laboratorio y el que se encarga del trabajo a escala piloto.
Para la supervisión directa del proceso debe haber un cuadro de ingenieros de proceso, cuyo
número estará en dependencia del número de turnos que trabaje la planta en un día. Por
ejemplo, si la misma trabajará solamente de 6 a 10 horas por día y si es sólo de moderada
complejidad, bastará con un solo ingeniero, pero si es una planta continua y que consiste en una
cadena de equipos, se necesitarán entre 6 y 9 ingenieros.
La tarea de esos ingenieros es asegurar que: se controlen adecuadamente las
corrientes de alimentación; funcionen correctamente las bombas y otros equipos
auxiliares; las temperaturas, presiones, niveles, amperajes y flujos estén en los valores fijados
apropiados y que en general, cada cosa esté funcionando como fué diseñada. Entre sus
funciones puede estar también la ejecución de operaciones manuales de los equipos y de hecho
los ingenieros de proceso pueden hacer la mayor parte de la operación de la planta piloto, en
dependencia de la magnitud y complejidad de la misma.
No obstante lo anterior, casi siempre es necesario contar con personal de operación, los
cuales debe ser preferentemente técnicos calificados y su número estará en dependencia
también del tipo de proceso y la complejidad del equipamiento. Para esta definición es de
gran ayuda poder contar con una planificación previa de los experimentos, en la cual se
hayan analizado con cuidado las diferentes tareas que hay que cumplir, ya que así se está en
condiciones de definir cuántos operadores son necesarios para que la planta funcione
correctamente y de forma segura.
En la práctica es preferible estimar en exceso el personal necesario para la puesta en
marcha de la planta piloto y si después se comprueba que no todos son necesarios, pasar
los excedentes a otras labores, que correr el riesgo de no contar con rapidez con el personal
necesario ante cualquier contingencia.
Finalmente es aconsejable, contar con por lo menos un especialista de mantenimiento asignado
a la planta e incluso más de uno si se trata de una planta compleja que funciona las 24 horas del
día. El hecho de que la planta piloto es una configuración experimental de equipos en la cual, sin
dudas, será necesario realizar cambios durante el desarrollo de los trabajos, sobre todo en la
etapa inicial del proyecto, hace mayor la necesidad de contar con un personal de
mantenimiento propio.
El resultado de esta concentración de personal altamente calificado es un elevado costo
de operación, pero esto obviamente es imprescindible si se quiere garantizar a la planta la
mayor posibilidad de éxito. Escatimar en la fuerza de trabajo, ya sea por su elevado costo o por
una supuesta falta de disponibilidad, tendrá el mismo efecto que hacerlo con el equipamiento
o la materia prima: una marcada reducción de la probabilidad de lograr los resultados
esperados con el funcionamiento de la planta piloto.
De hecho, si el programa de experimentos previsto para el tiempo de funcionamiento de la
planta no llegara a cumplirse por no haberse operado correctamente la misma y fuese
necesario por ello realizar trabajos de pilotaje adicionales, el incremento de los costos será
mucho mayor que lo que pueda significar el haber contado inicialmente con una mayor
cantidad y calificación del personal de dirección y operación de la planta.
residuales que tenga la organización que dirige el proyecto e incluso se puede contratar a firmas
especializadas en este tipo de tareas para explorar los costos del tratamiento y disposición final
de los residuales, con la antelación suficiente.
Además de estos factores principales, hay otros como son las necesidades de: espacio de
almacenaje adicional, facilidades auxiliares, equipos de seguridad especializados, grupos de
apoyo (analistas, ingenieros, personal de oficina, procesamiento por computadoras,etc.) y
contenedores para los productos y residuales, los que contribuyen a elevar considerablemente
estos costos.
Sin embargo, todos estos costos en la planta piloto muy raramente llegan a ser más del 10%
del costo global de la planta de producció de escala comercial y son los más seguros
contribuyentes al éxito de la planta comercial (28).
cubre prácticamente todas las necesidades posibles de los ingenieros de plantas piloto y,
cuando es necesario realizar una corrida de planta piloto en específico, los gastos en
equipos son prácticamente nulos, limitándose a alguna reconstrucción de tuberías.
El uso de este tipo de plantas lleva a la necesidad de que los equipos cumplan diferentes
tareas en diferentes proyectos y para ello hay que tener en cuenta dos puntos importantes:
1- Hay que asegurarse que cada configuración tenga todos los dispositivos de seguridad
necesarios para cada reacción específica. Por ejemplo: ¿Están los discos de ruptura o válvulas
de seguridad ajustadas para que accionen a la presión requerida y son del diámetro correcto?
¿Existen restricciones en la línea de venteo o es ésta demasiado larga? ¿Puede suministrar el
condensador de la columna, la carga de enfriamiento esperada? ¿Se cuenta con sistemas
secundarios de seguridad tales como sistemas de drenaje total rápido o de enfriamiento
súbito (quench)? ¿Puede este equipo operarse de forma segura con independencia de cómo se
desarrolle la reacción química?
2- Hay que estar seguro de que la instalación esté suficientemente instrumentada para
que pueda dar los datos de diseño necesarios. Normalmente las instalaciones permanentes tinen
los sensores para indicar, registrar o controlar la temperatura de la chaqueta de los reactores
(mediante vapor o flujo de un medio de enfriamiento y calentamiento), temperaturas internas,
presión interna, caída de presión a través de la columna, temperatura en el tope de la columna y
temperatura de salida del condensador y ocasionalmente se mide también la potencia del
agitador. Cuando se tiene dsponible instrumentación adicional es porque quedó instalado
de un trabajo anterior de la instalación.Cuando se analice lo relacionado con la instrumentación
que se requiere se debe tener en cuenta los requisitos con relación a la velocidad,
sensibilidad y precisión de la respuesta de los instrumentos; localización de los puntos
sensores; selección entre indicación local o remota; velocidad de búsqueda y análisis de
la información y las funciones de control que se requieren.
La planta piloto debe producir cantidades de muestra de producto con la calidad adecuada y
con los requerimientos previstos.
Los productos obtenidos en la planta piloto se pueden usar en una gran cantidad de vías:
para chequear la pureza obtenida; para suministrar muestras para clientes potenciales; para
suministrar muestras de campo para pruebas a gran escala, para realizar estudios
toxicológicos y ambientales, etc. Incluso en ocasiones el producto de una planta piloto se emplea
como alimentación de otra planta piloto, en una operación diferente.
La importancia de que se pueda alcanzar la producción con la calidad requerida y con los
redimientos esperados se comprueba con el hecho de que, en la mayoría de los casos, las
proyecciones de costo se realizan a partir de los estimados de rendimiento realizados en el
laboratorio y todo el proyecto puede ser abortado si en las corridas de la planta piloto no se
obtienen rendimientos que igualen o superen a los previstos en el laboratorio.
Es por ello imperativo que los rendimientos de las distintas etapas y la eficiencia en la
utilización de las materias primas se midan con precisión y exactitud y para ese objetivo se
requiere que la planta piloto esté instrumentada adecuadamente y permita obtener datos
confiables de los balances de materiales. Los requerimientos en este sentido van desde el caso
más simple en el cual es suficiente contar con básculas exactas para las materias primas y los
productos, hasta los casos en los cuales los balances de materiales no brindan la información
adecuada a menos que se empleen flujómetros altamente sensitivos acoplados con equipos de
análisis químico en línea (30).
Finalmente, lo más importante es que los valores de calidad del producto y rendimiento se
obtengan de un proceso que simule realmente al proceso final, de escala industrial.
-La operación de la planta se debe enfocar en los equipos de proceso críticos para el
futuro proceso a escala industrial y no debe verse afectada por la lucha contra problemas
específicos de la escala pequeña que no se tendrán en la escala industrial.
Los problemas típicos de la escala pequeña, que deben ser evitados en la etapa de diseño de
la planta piloto, son los siguientes:
El secreto está en saber reconocer estas fuentes de problemas y evitar caer en ellas, aunque
en ocasiones no es posible evitar que ocurran y en ese caso la solución es rediseñar y
construir nuevamente la sección que confronte este tipo de problemas. Para reducir el riesgo
de caer en esta situación, debe tenerse un cuidado especial con los siguiente aditamentos y
equipos:
1. Las válvulas de aguja son fuente perpetua de problemas en sistemas en los que se
manipulen sólidos o los mismos puedan aparecer durante la reacción. Hay que tener en
cuenta que aunque las mismas garantizan un trabajo muy preciso en sistemas limpios, tienen
un área de paso muy pequeña y es preferible seleccionar válvulas de bola de gran porte, a
pesar de que puedan ser sobredimensionadas con respecto a la tubería a la
2. que van a estar conectadas.
3. Los accesorios de tuberías (fittings) pueden causar taponeamientos y deben ser
evitados en los sistemas que manejan sólidos o se deben colocar de forma tal que sea
posible limpiarlos con facilidad.
4. Algunos medidores de flujo, como los rotámetros y los del tipo turbina, son
magníficos para la escala industrial pero están llenos de problemas en los sistemas
pequeños y sucios. La lectura obtenida de los mismos será cuestionable si ocurre
obstrucción parcial de los orificios o si las propelas o flotadores se cubren de depósitos.
5. Los tubos sumergidos empleados para toma de muestras tienen tendencia a obstruirse
y aunque la colocación de pequeños coladores en su parte inferior puede resolver este
problema, lo mejor es emplear siempre las tomas de muestra de tipo positivo y emplear
siempre que sea posible tuberías colocadas en el fondo de los recipientes, de manera tal
que la carga del líquido favorezca su salida.
6. Los dispositivos para la alimentación de sólidos en escala muy pequeña tienden a
presentar problemas con la exactitud de la medición si los sólidos están húmedos, son
higroscópicos o tienen tendencia a compactarse o aglomerarse. Es casi siempre mejor
alimentar soluciones en lugar de sólidos o lodos, por lo cual debe tratarse de disolver la
materia prima en cuestión para después alimentarla al reactor con una bomba de
medición convencional.
-El panel de instrumentación debe estar separado del sistema de la planta piloto.
De ser posible, con la única exepción de unos pocos indicadores locales, los instrumentos
deben ser montados en un panel separado del sistema de la planta piloto y preferentemente en
forma de un panel semi-gráfico. Esa decisión inicial se justifica por las diversas ventajas que
tiene:
Hay menos peligro y dificultad para el operador que tiene que recolectar los datos, ya que
no tiene que tener contacto con superficies calientes ni pasar trabajo para acercarse a los
instrumentos de medición.
Se pueden leer todos los instrumentos por más de una persona a la vez, de forma
confortable y eso asegura que los mismos sean revisados más a menudo.
Mientras una persona ajusta alguna parte de la planta piloto, otra puede observar los
instrumentos para chequear si la respuesta es correcta, lo que es especialmente
conveniente cuando la planta piloto está en control manual y se debe ajustar un flujo
-La planta piloto debe ser capaz de trabajar de forma ininterrumpida durante el
periodo de tiempo previsto.
Esto significa que las averías mecánicas deben ser minimizadas y para ello debe realizarse
un trabajo previo considerable para identificar tantas situaciones problemáticas potenciales
como sea posible. Cuanto más preparado se esté anticipadamente, en mejores condiciones se
estará para resolver los problermas que se presenten, a tiempo y de una manera ordenada.
Se debe estar preparado para responder preguntas como éstas:
Este tipo de preguntas relacionadas con el proceso son tan importantes como las
preguntas comunes de los manuales de operación acerca de lo que se debe hacer ante una
falla de energía eléctrica, agua de enfriamiento, aire de instrumentación o vapor. El estar
preparados con antelación para responderlas y por lo tanto para actuar en consecuencia, es una
garantía para evitar las complicaciones que provocan interrupciones en la operación.
El estudio detallado de las posibles complicaciones y la forma de prevenirlas y resolverlas
con rapidez cuando ocurran, permite confeccionar un programa realista, tanto del
proceso de construcción y puesta en marcha de la planta piloto, como del desarrollo de las
distintas corridas experimentales previstas.
En ese programa debe contemplarse el diseño de la instalación, la compra de los equipos. el
calendario de recepción de los mismos, la construcción y el montaje, confección del manual de
operación, entrenamiento de los operadores, programación de las corridas experimentales,
análisis de los datos, paradas para mantenimientos rutinarios e imprevistos, repetición de
experimentos críticos, confección de los informes, operaciones de limpieza, etc. Ese
programa no debe ser demasiado optimista y considerar los posibles problemas que se pueden
presentar.
El contar con un programa adecuado, aprobado por todos, evita que se someta la operación
de la planta piloto a presiones excesivas con relación al tiempo de ejecución de las tareas. Hay
que tener en cuenta además que realizar una operación piloto de forma precipitada puede
traer como consecuencia que se pasen por alto
detalles importantes, se pierdan datos, se afecte la calidad del producto, se pierda tiempo y se
llegue a afectar la moral del colectivo, además de comprometer incluso la seguridad de la
operación.
En la definición de planta piloto se excluyó la precisión del factor de escalado, por ser éste
un elemento a precisar en la etapa de diseño de la misma. El factor de escalado debe satisfacer
los requerimientos de datos de diseño, los requerimientos de preparación de las muestras
requeridas del producto, las expectativas de la dirección y el buen sentido del ingeniero de
proyecto.
Normalmente los cuatro factores se tienen en cuenta a la hora de definir el factor de escala
que tendrá la planta, aunque uno o dos de ellos sean más importantes que los demás. También
hay un quinto factor mucho más pragmático que puede resultar decisivo en muchos casos y es el
tamaño del equipamiento disponible.
Lo fundamental el lograr que la planta piloto sea suficientemente grande para que pueda
servir de indicador del costo y la calidad del trabajo requerido para la operación comercial del
proceso (4, 33), para que pueda hacer visibles aquellas perturbaciones que se pueden enmascarar
en la escala pequeña como son las exotermias moderadas, los cambios temporales en la
viscosidad y fenómenos de cambios de fase y también para prevenir problemas de manipulación
de sólidos y lodos, especialmente en lo relacionado con las tuberías de transferencia. A la
vez, la planta debe ser razonablemente pequeña de manera de poder minimizar las materias
primas requeridas y los residuales producidos y, en algunos casos, los inventarios en proceso.
También las limitaciones físicas pueden llegar a determinar el tamaño de una planta piloto.
Por ejemplo, puede ser importante que la operación se realice en un espacio dado, como puede
ser una celda de prueba a alta presión o que se necesite que la planta sea transportable para que
pueda ser eventualmente trasladada al lugar de la planta comercial (12, 15).
Finalmente hay que lograr que la planta piloto sea realmente escalable. No tiene sentido
construir una planta piloto tan pequeña que se puedan tener dudas acerca de la validez de
los datos obtenidos para el escalado de la planta de produccion. Hay que considerar también que
muchos de los datos requeridos para el diseño son obtenibles perfectamente en el banco y lo
que se necesita es comprobarlos en equipos más grandes. También hay datos que se pueden
obtener solamente en los modelos a gran escala (mockups), y por ello no es necesario
tenerlos en cuenta en el diseño de la planta piloto.
5.5.3 Seguridad.
realizadas, para estar seguro de poder detectar cualquier situación que pueda generar un peligro
en la escala piloto.
No se puede comenzar un programa de pruebas a escala piloto si no se ha realizado ese
análisis exhaustivo y la mejor vía para asegurar una transferencia adecuada de la
información de las etapas de laboratorio y banco a la etapa piloto, es mantener la participación
activa durante todas esas etapas de investigación, de al menos uno de los ingenieros que
posteriormente trabajarán en la planta piloto. Ese ingeniero deberá asegurar que se pueda
obtener el tipo de información necesaria para garantizar la seguridad y que todo el trabajo de
laboratorio se realice desde el punto de vista de la seguridad ingenieril.
Este procedimiento se complementa con la participación de uno de los químicos del equipo
de investigación de laboratorio y banco en el grupo de trabajo de la etapa piloto, o mejor aún,
con la aplicación del principio de Ingenierización (Capítulo 1), conformando un equipo
multidisciplinario que participe en todas las etapas de I-D (laboratorio, banco, piloto, semi-
industrial e industrial).
Como resultado de todos esos análisis previos y la experiencia acumulada se deben
confeccionar un conjunto de informaciones sobre factores de toxicidad, inflamabilidad,
explosividad, requerimientos especiales de manipulación, condiciones adversas de reacción
(exotermias, formación de espumas, desprendimiento de vapores, etc.), así como una relación
razonablemente completa de propiedades físicas y químicas, todos los cuales se deben
anexar a las instrucciones de operación.
El trabajo de diseño de la planta piloto debe comenzar solamente cuando el equipo de
ingenieros de proyecto se sienta seguro de que se han tenido en cuenta y acopiado todos los
datos provenientes del trabajo de laboratorio y banco. Todo el trabajo relacionado con la
seguridad debe ser realizado con la participación del equipo de proyecto en su conjunto,
aunque es un buen procedimiento de trabajo responsabilizar especialmente a un
miembro del equipo con la misión de centralizar todo lo relacionado con este tema.
Este especialista debe asegurar que se tomen todas las consideraciones de seguridad
en el diseño, como son: selección adecuada de las dimensiones de las líneas de venteo y
dispositivos de seguridad, reducción al mínimo de los inventarios en proceso de las materias
primas o productos peligrosos, adecuada capacidad de enfriamiento y dispositivos para
evacuación y/o enfriamiento rápido, para el caso de incrementos bruscos del calor generado por
las reacciones, sistemas adecuados de válvulas de cierre rápido de circuitos, etc.
Debe recibir una atención especial la seguridad del personal durante la carga de las
materias primas, durante la toma de muestras y en el caso de salideros. Durante la fase de
diseño deben considerarse suficientes chequeos y balances que permitan probar que aún los
aspectos más críticos del diseño son seguros,
que los sistemas de control funcionarán adecuadamente y que los fallos mecánicos o errores
humanos no serán desastrosos.
5.6.1 Introducción
El trabajo debe ser organizado de forma tal que cuando se ha culminado el diseño de la
planta piloto, un gran número de personas de distintos departamentos se ha relacionado de una
forma u otra con el mismo. Los especialistas de mercadotecnia deben de haber proyectado las
características que debe tener el producto y
en que tiempo se necesita; el departamento de ventas solicitado las cantidades necesarias
de muestras y desarrollado especificaciones tentativas para el producto; los abogados
especializados en patentes iniciado los contactos con los miembros del equipo de
investigadores y comenzado la revisión de los libros de anotaciones para obtener los
elementos que les permitan hacer las solicitudes de patentes pertinentes; el departamento
de producción designado un representente en el proyecto y la dirección superior revisado el
diseño de la planta piloto y aprobado la continuación de los trabajos, o sea la construcción
de la planta y el inicio de las corridas experimentales.
Además, antes que comience formalmente la construcción, se debe emitir un Permiso de
Construcción, para lo cual deben de estar de acuerdo tanto el jefe de la Planta Piloto como el
miembro del colectivo encargado de las tareas de Seguridad. Para garantizar que esto se ha
cumplido adecuadamente resulta muy conveniente utilizar un cuestionario, el cual debe servir
para relacionar los peligros potenciales considerados en el diseño y las posibilidades de
funcionamiento incorrecto consideradas y evitadas con métodos de diseño adcuados.
También debe emplearse este cuestionario para relacionar las facilidades auxiliares
requeridas, las descargas de efluentes, los materiales de construcción, etc, más una lista para
chequear los equipos más importantes desde el punto de vista de la seguridad y la protección del
medio ambiente.
Durante la construcción debe de asignarse por lo menos a un miembro del equipo de
dirección del proyecto piloto, para que se responsabilice con chequear que la planta se
construye realmente como ha sido proyectada. Esto es especialmente importante cuando el
trabajo de construcción de la planta piloto se realiza por el propio personal que acomete el
proyecto, en lugar de contratar a una firma especializada. Eso significa que las comunicaciones
son menos formales y existe por lo tanto mayores posibilidades de interpretación inadecuada
de las tareas, suposiciones incorrectas, sustituciones de equipos no autorizadas y errores de
construcción ocasionados por los deseos de acortar el trabajo, por lo cual hay que tener un
cuidado especial en esas situaciones.
Adicionalmente a eso, los chequeos de la seguridad futura de la instalación durante la
construcción, permiten poder confirmar que los instrumentos de alivio de presión se han
instalado correctamente, que se han empleado los materiales de construcción especificados y que
los equipos de seguridad están accesibles, que
el espacio de trabajo no está abarrotado y obstruído y que se haya previsto las rutas de escape
del personal (34).
Además, mientras se realiza la construccion de la planta piloto, se deben estar desarrollando
En el caso de las plantas piloto dedicadas o unipropósito, éstas deben ser construídas, de ser
posible, con los mismos materiales con que se construirá la planta final. Si en esa etapa del
diseño hay todavía dudas sobre los materiales que se deben emplear en algunas áreas críticas, es
necesario considerar la colocación de pruebas de corrosión de manera tal que se puedan
evaluar adecuadamente los materiales más adecuados.
Cuando la planta piloto es multipropósito, no son muy amplias las posibilidades de selección
de los materiales ya que los equipos son generalmente de acero inoxidable. de acero
recubierto de vidrio o totalmente de vidrio y por ello, en los casos en que se empleen
productos químicos muy corrosivos, se deben extremar las precauciones para evitar que se
somete a los equipos a una corrosión indebida.
Cuando se conoce que las características del proceso requiere de una aleación especial se
debe tratar de obtener el equipamiento piloto construído con dicho material o en su defecto
deberá realizarse un compromiso y utilizar la opción más próxima. Sin embargo, aunque en
muchas ocasiones es suficientemente amplia la selección de los materiales a emplear en los
equipos de pequeña escala, en la práctica en la mayoría de los casos la selección se realiza entre
el vidrio, el acero recubierto con vidrio, la cerámica, los recubrimientos de goma y los
plásticos especiales.
adecuadamente por diferentes causas. También los alimentadores pequeños del tipo de tornillo
sin fin tienden a tupirse fácilmente y los alimentadores
vibratorios, si bien pueden trabajar bien, causan problemas cuando la alimentación sólida debe
ser introducida en un sistema cerrado o bajo presión.
Una buena solución pueden ser alimentar a través de una tolva, controlando la salida de la
misma con válvulas de doble mariposa controladas por tiempo, combinando ésto con un
vibrador en la tolva para mantener los sólidos en movimiento.
No obstante, si los sólidos son pegajosos, polvorientos, con tendencia a aglomerarse o
higroscópicos, la mejor solución problablemente es disolverlos o suspenderlos en un
líquido adecuado y alimentarlos por esa vía. Esta solución puede resultar especialmenmte
adecuada en los casos en que es posible la alimentación discontinua.
En algunos casos ocurre que un sistema de alimentación debe ser piloteado junto con el
sistema de reacción química y en ese caso lo mejor es consultar expertos en manipulación de
materiales para determinar primero la mejor opción práctica para la planta de gran escala y
posteriormente realizar el escalado descendente del
equipamiento de alimentación a emplear en la planta piloto. Ahora bien, si la metodología de
alimentación de las materias primas no es importante para el proceso, se debe buscar la vía de
adicionar losmateriales al proceso de la manera más conveniente que sea posible, con
independenmcia de que no guarde la más remota semejanza con el sistema de alimentación
industrial, ya que no se debe dedicar esfuerzos en pilotear lo que no es imprescindible, de forma
tal que se pueda concentrar la atención en los aspectos verdaderamente importantes.
Ciclos de 12 a 16 horas por templa o incluso mayores, representan una complejidad adicional,
ya que si bien la mayoría de las personas no cuestiona un turno de 16 horas en una
ocasión, probablemente ninguno está dispuesto a mantener de forma constante ese horario de
trabajo.. Por esa razón, si la operación excede las 12 horas por día, se necesitan por lo menos
dos turnos de operadores.
Finalmente hay que tener en cuenta que para pasar de 3 turnos por día durante 5 días a la
semana a 3 turnos por día la semana completa, requiere normalmente la existencia de un
cuartdo turno, lo que constituye un paso caro, permitido sólo por necesidades del proyecto.
Es una buena regla reservar suficiente espacio para el almacenaje interior de los materiales
necesarios para una corrida de por lo menos un día. Por ello, considerando que algunas
facilidades piloto no tienen capacidad para almacenar o manipular grandes cantidades de
tambores o paletas cargadas con sacos, el tamaño requerido para los equipos se debe limitar de
manera tal que se ajuste a dicha disponibilidad de almacenaje.
Unido a los requerimientos de almacenaje de materia prima, está el problema de la
disposición de los materiales residuales. Las plantas piloto poroducen con frecuencia
mayor cantidad de subproductdos y producto fuera de especificaciones y por lo tanto
inutilizable. que material comercializable, por lo cual se deben
realizar los arreglos correspondientes para el empaque y laidentificación de los residuales,
con vistas a la disposición segura y legal de los mismos.
Entre los métodos de eliminación interna alternativos se tienen: Incineración (en un
incinerador registrado y aprobado legalmente), limpieza y recirculación o procesamiento
ulterior para su conversión en un producto comercial. En el caso de las corrientes de agua
limpias tales como el agua de enfriamiento que no se pone en contacto con el fluido, éstas
pueden enviarse directamente a el alcantarillado municipal, después de obtener las
aprobaciones pertinentes por los organismos encargados de la protección del medio ambiente.
Con relación a este tema, el problema va más allá de la toma física de muestras de una
masa reaccionante en proceso. Tiene un peso fundamental que se tome la muestra correcta y
que dicha muestra nos suministre toda la información necesaria, compensando el esfuerzo y el
costo.
La tendencia general es a tomar más muestras de las necesarias, a causa de los aspectos
desconocidos del proceso, de forma tal que según se va avanzando en el aprendizaje de la
operación, puede decrecer la necesidad de muestras o puede ser posible almacenar las
muestras (si éstas son estables), para analizarlas posteriormente en caso de necesidad.
Es una buena medida organizar un cronograma de toma de muestras, en el que se relacione
la cantidad de muestras que deben ser tomadas en cada momento, lo que debe ayudar a
mantener el número de muestras a tomar dentro de un intervalo aceptable y a planificar
adecuadamente el trabajo de los analistas.
Las técnicas de muestreo debe ser diseñadas y probadas con la anticipación requerida.
Los sistemas somedidos a vacío, los sistemas de múltiples fases y los tiempos de reacción
muy cortos, representan problemas especiales para el muestreo y esto hace evidente la ventaja
de considerar el sistema de muestreo en su
conjunto al mismo tiempo en que realiza el diseño de la unidad piloto de manera tal que se
puedan considerar las facilidades que se requieren para esos muestreos.
El sistema de muestreo en su conjunto debe ser diseñado de forma tal que garantize que
las muestras sean representativas del sistema. Los tubos sumergidos deben ser purgados con
gas inerte o, como alternativa, antes de tomarse la muestra, debe purgarse previamente una
cantidad de muestra igual a aproximadamente dos veces el volumen del tubo sumergido. Se
debe considerar también como se garantiza la "congelación" adecuadan de la muestra después
de tomada, de forma tal la misma representa realmente al sistema, en el momento en se tomó la
muestra.
También deben preverse la utilización de recipientes adecuados, como por ejemplo
"bombas" de metal con válvulas en ambos extremos que permita su evacuación y purgado,
botellas con tapas que permiten la inyección de muestras con jeringa hipodérmica o
contenedores de gas especiales para no condensables. También debe preverse la existencia de
un número suficiente de estos aditamentos, para poder compensar las posibles demoras
en el retorno de los mismos del laboratorio.Se debe considerar también que parte de los análisis
de rutina pueden ser hechos por el propio personal de la planta piloto, lo que incluso debe
incluir la operación de los cromatógrafos, cuando éstos no son muy complejos. En ese caso el
cromatógrafo de gas
debe ser revisado y calibrado periódicamente, por el personal calificado del laboratorio.
Finalmente, en los casos en que se van a emplear analizadores en línea, o los mismos van
a ser piloteados junto con el nuevo proceso, se deben realizar arreglos que permita realizar
en paralelo los análisis químicos. La redundancia que se obtiene debe ser eliminada
posteriornmente cuando se haya establecido la credibilidad de los sistemas automáticos .
tiene la posibilidad de seleccionar entre las stripcharts (para las salida gráfica cuando
diferentes curvas con diferentes escalas se deben imprimir en una carta única), o las
impresoras de línea más caras, las cuales pueden producir tanto salidas gráficas como
digitales.
4. Una ventaja adicional de los recolectores de información computarizados es su
habilidad para controlar el proceso. Para ello la salida digital de la computadora se
convierte en señales analógicas, las cuales a su vez pueden operar relais o equipos
similares para abrir o cerrar válvulas, arrancar o parar motores y energizar serpentines de
calentamiento, normalmente a través de rectificadores controlados por silicón .
5. Cuando se acoplan con un reloj en tiempo real, los sistemas de ese tipo pueden
realmente dirigir la operación de una planta piloto de acuerdo con un progrma
predeterminado y si algo anda mal, puede guiarse por si mismo a una parada ordenada.
Este alto nivel de automatización, si bien es posible que no sea deseado durante las fases
experimentales primarias de una operación piloto, puede perfectamente ser utilizado por el
personal una vez que la planta piloto se ha estabilizado y se mantiene operando con el propósito
de probar el proceso o producir muestras de
producto.
La elección del tipo de instrumentación depende de la filosofía general asociada con la
planta piloto. Un proceso razonablemente directo, que debe ser operado solo por unas pocas
semanas para confirmar resultados de pequeña escala, probablemente no puede justificar un
paquete de instrumentación caro y complejo. Pero si el proceso a estudiar es muy complejo y
existe la posibilidad de la ocurrencia de exotermias súbitas, incrementos de presión o
descontrol de la reacción, y si la planta piloto debe ser operada por meses, entonces puede ser
justificado el empleo de los sensores de alta velocidad y los controles e incluso el uso de
sistemas supresores de explosión.
Los instrumentos analíticos en línea, deben ser probados primero a nivel de banco y deben
seguirse cuidadosamente las instrucciones del fabricante. Resulta una buena idea el poder
realizar algún entrenamiento de dos o tres días en la empresa productora de los equipos, sobre
todo cuando no se ha tenido experiencia previa con el tipo de equipo en cuestión.
Finalmente, teniendo en cuenta que la corriente de proceso fluye directamente através del
analizador en línea, se deben realizar auditorías especiales de seguridad relacionadas con:
asegurarse que todas ls partes humedecidas estén hechas de materiales de construcción
compatibles; observar especialmente los sellos de
gomas (juntas, anillos, etc), cámaras de filamentos de alambre calientes y similares y estar
seguro de especificar los propios niveles eléctricos seguros. Aquí hay que tener en cuenta
que si bien muchos equipos electrónicos son intrísicamente seguros, se debe tener cuidado
cuando hay presentes relais, chuchos, filamentos calientes y llamas abiertas.
i) Entrenamiento.
Una planta piloto requiere un personal alerta, entrenado para realizar la totalidad de las
operaciones requeridas y para ello es necesario someter a dicho personal a un entrenamiento muy
similar al que se somete normalmente al personal que operará la instalación a escala
completa.
Entre los elementos que fundamentan esta necesidad está el hecho que en este tipo de
plantas se trata con una serie de incógnitas, a un nuevo nivel de escala. Además este
personal deberá enfrentarse a la recolección y procesamiento de una gran cantidad y diversidad
de datos, desde las observaciones rutinarias para la operación hasta las mediciones
experimentales más cuidadosas y detalladas. Se trata así mismo de ser capaz de lograr el
ajuste fino del proceso, alcanzando la optimización de cada aspecto, desde las condiciones de
operación hasta el rendimiento químico y la pureza del producto.
Finalmente, el colectivo de la planta piloto debe ser capaz de combinar todos esos
novedosos conocimientos en los elementos decisivos para el diseño de un nuevo proceso a
escala completa, factible económicamente y práctico y resulta evidente que para ello todos los
miembros del equipo deben conocer exactamente lo que deben hacer y sus responsabilidades.
Para asegurar lo antes expuesto, durante el entrenamiento deberán contemplarse materias
tales como la química del proceso en estudio, la filosofía de diseño (objetivos, escala,
duración, restricciones), selección de equipamiento, racionalidad operacional, programas,
organización de la operación, tareas y responsabilidades individuales y evaluación de
riesgos y seguridad.
El entrenamiento debe comenzar tan pronto se tenga organizado el equipo que operará la
planta piloto, debe consistir en conferencias, prácticas y sesiones de trabajo en equipo y
debe abarcar todas las secciones con que cuenta la instalación piloto. Si la construcción se
encuentra en proceso durante ese período, redsulta muy útil interrumpir periódicamente el
proceso de entrenamiento para realizar breves viajes de inspección al área de construcción.
En el caso de las plantas piloto grandes y especialmente cuando son del tipo unipropósito,
la tarea de rotular las líneas y válvulas constituye una excelente herramienta de
entrenamiento, ya que esto conlleva la revisión de los dibujos de tuberías, el seguimiento del
trazado en el terreno y la familiarización del personal con el equipamiento y su operación.
l tiempo dedicado al entrenamiento, en cada una de las materias mencionadas, dependerá
fundamentalmente de la complejidad de la planta y muy especialmente del nivel de experiencia
del colectivo a ser entrenado. Es evidente que un grupo relativamente nuevo requerirá un
proceso de entrenamiento mucho mayor, incluyendo los aspectos básicos de la operación de las
plantas pilo, que un colectivo experimentado en estas labores.
j) Manuales de operación.
La experiencia ha demostrado que resulta muy útil redactar los manuales de operación
aún en el caso de las plantas piloto pequeñas, ya que esto representa un número de ventajas
entre las que se destaca que el hecho de preparar el manual en si mismo es una excelente
herramienta de entrenamiento, ya que con ello se
fuerza a los redactores del manual a pensar cuidadosamente sobre cada etapa de las
operaciones, o sea del proceso de pruebas previas a la arrancada, de la puesta en marcha, de la
operación y de las paradas, normales y de emergencia.
También un manual de operación permite tener toda la información conocida,
convenientemente reunida, lo que incluye la química del proceso en estudio, la descripción
del equipamiento, las instrucciones de operación, los procedimientos de seguridad y
emergencia, los datos de seguridad para cada producto químico involucrado y los dibujos y
esquemas. Esto lo hace un excelente libro de texto durante todo el proceso de puesta en
marcha y la operación de la planta piloto.
Una vez terminadas las corridas previstas, no termina en realidad el trabajo de la planta piloto.
Primero es necesario proceder a una parada bien ordenada y realizar posteriormente una
limpieza cuidadosa de toda la instalación, hasta alcanzar niveles seguros en el interior del
APENDICE
TERMINOLOGIA
La aplicación de la teoría de los modelos en las operaciones de Ingeniería Química hace necesario la
introducción de algunos términos técnicos nuevos y la importación de otros, los cuales pueden resultar
no familiares para los ingenieros químicos. Aunque esos términos se han ido explicando según aparecen
por primera vez en el texto, resulta conveniente que se relacionen en orden alfabético y se presenten
nuevamente sus significados.
Constantes dimensionales: Cualquier constante en una ecuación física que cambia de valor cuando
se cambian las unidades de medidas.
Control por acción de la masa: Control de la rapidez de una reacción química provocada por la
acción de las masas como ocurre en un sistema homólogo.
Ecuación potencial: Una ecuación en la cual la rapidez se iguala a la diferencia de potencial dividido
por una resistencia. Las ecuaciones potenciales compuestas pueden ser de forma serie o paralelo, en
dependencia de si las diversas resistencias están en serie o en paralelo.
Elemento: Réplica de tamaño completo de una o más células o componentes de un aparato prototipo.
Fuerzas correspondientes: Las fuerzas que actúan sobre partículas correspondientes en tiempos
correspondientes.
Homogeneidad dimensional: La condición de una ecuación física en la cual todos los términos tienen la
misma dimensión.
Mockup: Modelo estructural a escala completa, construído de forma precisa, con propósito de estudios,
prueba o demostración.
Modelo: Una réplica semejante geométricamente de un aparato más grande denominado el prototipo, en
el cual, a menos que se señale lo contrario, se asume que la relación de escalas sea la misma a lo largo de
los tres ejes (Ver modelo distorsionado).
Operaciones críticas: Operaciones que forman parte de un proceso a escala piloto para las cuales el
trabajo de la planta piloto resulta imprescindible, para poder obtener los datos de diseño
para la planta industrial.
Patrones de flujo: Forma geométrtica de las líneas de flujo de un sistema de flujo de fluídos.
Planta piloto: Cualquier planta a escala pequeña, utilizada para suministrar información anticipada
acerca de una futura planta a gran escala (Ver experimento con modelo).
Régimen: La naturaleza del proceso que determina la variación global de la rapidez de un sistema .
Régimen dinámico. Condición en la cual el proceso que determina la rapidez global es la dinámica física
del sistema. En los sistemas fluidos esta condición es el patrón de flujo.
Régimen mixto. Condición en la cual la razón de cambio global es influenciada por dos procesos, que
tienen criterios de semejanza incompatibles.
Régimen térmico: Condición en la cual la rapidez global de cambio con respecto al tiempo determinante
del proceso es la rapidez de la transferencia de calor.
Semejanza: La condición de dos o más sistemas enlos cuales hay una relación constante entre las
cantidades correspondientes. La semejanza puede ser geométrica, mecánica, térmica o química, de
acuerdo con las propiedades con respecto a las cuales los sistemas son semejantes. Cada uno de esos
grados de semejanza incluye los anteriores. La semejanza mecánica se se subdivide a su vez en
estática, cinemática y dinámica. Otras clases de semejanza como la eléctrica, están fuera del alcance de
este libro.
los cuales son iguales las relaciones entre las fuerzas correspondientes.
Semejanza geométrica: La condición de dos cuerpos o espacios en los cuales para cada punto de uno
existe un punto correspondiente en el otro
Semejanza mecánica: Término genérico que engloba las semejanzas estática, cinemática y dinámica.
Símbolos: Hay dos convenciones generales acerca de las cantidades correspondientes que se deben
señalar::
1-En las relaciones de cantidades correspondientes, el símbolo con apóstrofe siempre se refiere al
prototipo.
2-Las relaciones de cantidades correpondientes se denotan con caracteres en negrita, en los cuales se
considera siempre que la cantidad referida al prototipo está en el numerador de la
relación. Por ejemplo, v = v'/v es la relación de la velocidad en el prototipo (v') con la velocidad
correspondiente en el modelo (v).
Sistemas homólogos: Sistemas en los cuales son semejantes geométricamente la forma de los
miembros sólidos correspondientes o de los envolventes sólidos que encierran las masas de fluido y son
idénticas la composición química y las propiedades físicas en puntos correspondientes, al menos en el
rango en que ellos afectan el proceso en estudio.
Superficie de control: Control de la rapidez de una reacción química por la rapidez de la tansferencia
de calor o masa através de una superficie o interfase, como ocurre en muchas reacciones heterogéneas.
Velocidad reducida: La velocidad del fluido real, dividida por la velocidad crítica inferior, en el
mismo sistema a la misma temperatura y presión.
BIBLIOGRAFÍA
BIBLIOGRAFÍA DEl CAPÍTULO 1
1- Brizuelas, E., "Aspectos Fundamentales del Diseño de Plantas Industriales ", Tomo
II, Capítulo 9, 708-746, Editorial ISPJAE, La Habana, 1987.
2- ICIDCA, "La Ingenierización de los Procesos Químicos y Biológicos",
documento presentado al polo científico del Oeste La Habana, Mayo de 1992.
3- Jonstone, R.E., Thring, M. E., "Pilot Plants, Models and Scale-up Methods in
Chemical Engineering", Mc.Graw-Hill Books C., New York, 1957.
4- Kazatkin, A.G., "Operaciones Básicas y Aparatos en la Tecnología Química",
Tomo I, Editorial "Jimia", Moscú, 1981.
5- Luyben, W.L., "Process Modeling, Simulation and Control for Chemical
Engineering", 160-165 ,Mc. Graw Hill Book Kogabusha, Ltd., Tokyo, 1973.
6- Mc. Adams, W.H., "Transmisión de Calor", Capítulo 5, 133-146, Editorial Ciencia y
Técnica, La Habana, 1970.
7- Mc. Cabe, W.L., Smith, I.C., "Operaciones Básicas de la Ingeniería Química,
Volumen I, 16-21, Edición Revolucionaria, La Habana, 1986.
8- Perry, R.E., Green, D., "Perry's Chemical Engineer's Handbook", 6ta Edición,
Volumen I, páginas 2-113 - 2-116, 421-424 y 561-563, Edición Revolucionaria, La
Habana, 1989.
9- Ravinovich, E.A., "Hidráulica", Capítulo 8, 298 - 310 ,Editorial MIR, Moscú,
1987.
10- Rosabal, J., "Teoría de Los Modelos en Ingeniería de Procesos", Editorial
Oriente, Santiago de Cuba, 1988.
11- Rosabal, J., Garcell, L., "Hidrodinámica y Separaciones Mecánicas", Tomo I,
pagína 55, Editorial Pueblo y Educación, La Habana, 1990.
12- Stein, F.P., AIchE Journal, 33(12), 1986-1992, (1987)
13- Trambouze, P., "Chemical Engineering Processing", 86(2), 23- 31, (1990).
14- Viera, R., López, S., Levy, M.N., "Modelación Matematica para Ingenieros
Químicos ", Editorial Pueblo y Educación, La Habana, 1988.
15- Viera, R., Soler, S., "Diseño y análisis de Reactores Químicos", Tomo I,
Editorial ENPES, La Habana, 1991.
16- Von Stockar, U., Marison, W., "The use of Colorimetry in Biotechnology", en
"Advances in Biochemical Engineering and Biotechnology ", Vol 40, Editor A.
Fletcher, Spring Verlag, Berlin, Heidelberg, 1989.
17- Walas , S.M., "Cinética de las Reacciones Químicas", Capitulo 11, 314-326, Editorial
Pueblo y Educación, La Habana, 1979.
18- Wetty, J. R., Wilson, R.E., Wicks, E.E., "Fundamentals of Momentum, Heat and
Mass Transfer", Capitulo 11, 143-153, Wiley International Editions, Jonh Wiley and
Sons, Inc., New York, 1965.
file:///F|/Temporal/Monografia%20de%20Escalado/MONOGRAFIA10.htm
View publication stats
(162 of 162)15/04/2004 06:19:23 p.m.