Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Diciembre 2000
PROLOGO
Las presiones competitivas en la industria química y en la biotecnológica hacen cada vez más necesario
contar con procedimientos que permitan escalar lo más rápido y directo posible, desde los laboratorios de
investigación y desarrollo. para poder acortar el tiempo que transcurre entre la concepción de un nuevo
proceso y la puesta en marcha de la planta correspondiente, a escala industrial.
Esta tarea no puede cumplirse sin un dominio y aplicación adecuada de las técnicas de esalado y por esa
razón, este texto tiene como objetivos generales:
Presentar de forma ordenada los fundamentos de los métodos de escalado, definiendo adecuadamente ese
término.
Introducir el concepto de Ingenierización en los trabajos de Investigación y Desarrollo.
Conocer los procedimientos de aplicación del escalado en la solución de los problemas relacionados con
el desarrollo de tecnologías y procesos industriales, a partir de resultados científicos obtenidos en los
laboratorios.
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 1/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
Para cumplir esos objetivos se han considerado seis capítulos. Para la confección de los capítulos 2, 3 y 4
se tomó como base el clásico texto de Johnstone y Thring "Pilot Plants, Models and Scale-up in Chemical
Engineering" , y en especial sus capítulos 2, 3, 4, 5, 6, 7. 8 y 9 y los Apéndices 1 y 2, traducidos y
actualizados. El Capítulo 1 se redactó tomando como base los materiales de los Talleres Internacionales
sobre Escalado realizados en la Habana en 1992, 1993 y 1995 y para el resto se tomaron como base
principalmente artículos de revistas actualizadas de la especialidad y textos como "La Teorìa de los
Modelos en la Ingenierìa de Procesos" de J. Rosabal
CAPITULO 1
INTRODUCCION AL ESCALADO INDUSTRIAL
transferencia de masa y calor, las cuales son controladas por el tamaño y estructura del reactor (30).
Por esa causa la reacción química se afecta por el tipo de reactor y el efecto del incremento de escala
resulta normalmente impredecible de forma cuantitativa, lo que resulta más complejo aún cuando en la
reacción participan diferentes fases, a causa de que los fenómenos no son todos afectados en la misma forma
por las dimensiones de una planta (Tabla 6-2) (29).
Tabla 6.2. Efecto de las dimensiones geométricas en lo fenómenos pirncipales que ocurren en un
reactor con fases múltiples.Tomado de Trambouze, 1979 (29).
DIMENSIONES GEOMÉTRICAS
MECA- Volumen ( razón Superficie
NISMO DL ) 2 L/D lateral/vol.
( D-1)
Reac- Fuerte, Débil e Sin
ción prácticamente indirecto influencia
química determinante directa
Transf. No Fuerte Sin
de masa determinante. influencia
Indirecto directa
Transf. Débil e Fuerte Fuerte y
de calor indirecto directo
Un procedimiento de escalado satisfactorio puede requerir un enfoque empírico paso a paso, en el cual
el tamaño del reactor se va incrementando paulatinamente, para poder conocer en detalle el efecto del
cambio de escala en la velocidad y rendimiento de la reacción. Este procedimiento es largo y costoso.y por
ello se han desarrollado un número de métodos semiempíricos alternativos para aliviar esta situación.
Entre esos métodos está la aplicación del Principio de Semejanza, estudiado en el Capítulo 2, la
modelación matemática y el uso de modelos a gran escala (mockups) y en muchas ocasiones los mejores
resultados se logran con el uso combinado de los mismos ( 25 ). No obstante, todos esos métodos
requieren de los datos cinéticos y termodinámicos básicos, los cuales deben de obtenerse de la
literatura si están disponibles o de la experimentación.
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 3/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
. Semi-industrial
. Industrial
Esta división es convencional y por ello, como veremos más adelante, no son muy precisos los
límites entre una escala y otra, ni tienen que considerarse siempre necesariamente todas las escalas,
siendo bastante común, por ejemplo, obviar la escala semi-industrial. También hay casos, cuando el
proceso es suficientmente conocido y sus características lo permiten, en que puede pasarse directamente de
la escala de laboratorio a la escala industrial.
En su concepción más simple, el concepto de escalado se refiere al paso de una escala a otra, durante el
proceso de desarrollo de un nuevo producto o tecnología. En ese caso se acostumbra a utilizar el término
escalado ascendente (scale-up) al proceso que va desde la escala de laboratorio hasta la escala
industrial y escalado descendente (scale-down) al proceso inverso aunque conceptualmente son un
mismo y único proceso de escalado y la definición del concepto éscalado es un poco más compleja que
el simple tránsito de una escala a otra.
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 5/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
Por otra parte, cuando se escalan reactores la tendencia es a considerar el factor de escala por el
volumen y esto lleva en ocasiones a considerar factores más elevados que el rango recomendado.
Por ejemplo, si una reacción a escala de banco se ha realizado en un recipiente de l2 L y el tamaño final del
reactor industrial se estima en unos 11500 L, se puede pensar que serán necesarias dos etapas intermedias,
una de 100 L y otra de 1140 L, lo que daría factores de escala de 8, 12 y 10 respectivamente.
Sin embargo, se puede considerar mejor un valor intermedio de 400 L y en ese caso los factores de
escala obtenidos (33 y 29) aunque superiores al rango recomendado, son también aceptables y esta opción
constituye un buen compromiso, evitando tener que construir dos plantas piloto. Además si se considera la
relación de escala con respecto a la dimensión lineal en lugar del volumen, lo que es realmente lo
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 6/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
Los estudios de banco constituyen un paso de gran importancia y pueden contribuir a reducir
considerablemente los costos de la investigación y obviar, en algunos casos, la necesidad de los trabajos a
escala piloto.
Los objetivos principales de esta etapa son :
1. Revelar la esencia de los fenómenos que ocurren en los procesos.
2. Revelar los pasos controlantes o críticos en las operaciones.
3. Verificar hipótesis de modelos matemáticos.
4. Aportar información para cálculos y diseños de ingeniería.
Además en el caso de la Síntesis Orgánica, hay otros objetivos como:
Realizar estudios fundamentales de ingeniería de procesos como los fenónemos de superficie,
fenómenos reológicos, equilibrio de fases, separaciones complejas, estudios de materiales, etc.
Determinar propiedades y características físico-químicas de las sustancias como la densidad,
viscosidad, tensión superficial, tamaño de partículas, porosidad, calor específico, etc.
Conocer la Termoquímica (calores de reacción) y Termofísica (capacidad calorífica de las
mezclas,etc).
En el caso de los procesos biotecnológicos se consideran también los siguientes objetivos:
1. Selección del procedimiento de desarrollo de inóculos, esterilización del medio, aireación, agitación y
operaciones de purificación.
2. Ajuste de variables como razón de transferencia de oxígeno, evolución de dióxido de carbono,
producción de biomasa, biosíntesis de metabolitos y efectos del pH.
3. Estudio del régimen de alimentación continua o incrementada.
4. Selección de alternativas de control e instrumentación.
5. Evaluación económica preliminar y estimado de viabilidad del proceso.
Esta etapa permite un enfoque científico a relativo bajo costo.
En ocasiones, a las plantas de este tipo se le han denominado plantas demostrativas, aunque otros
autores prefieren el término de plantas prototipo (3,4). Estas plantas se construyen de igual forma que una
planta de escala completa, pero a una capacidad de producción menor, usualmente un décimo de la
proyectada para la escala definitiva, que permite el acopio de experiencias durante su funcionamiento y
sirve de modelo a las futuras plantas in dustriales que se construyan (14).
En la mayoría de las ocasiones esta etapa del escalado puede omitirse, lo que representa una
considerable reducción en el periodo de desarrollo de una tecnología.
"Un químico inventa un nuevo producto químico o proceso en su laboratorio y lo estudia intensamente
en una microescala. Obtiene una gran cantidad de información con estudios de parámetros no
cuantitativos y como resultado puede obtener varias patentes que incrementan su prestigio cientifico, así
como el de la institución a la cual pertenece.
La nueva invención se lleva al departamento de desarrollo comercial, el cual trabaja para hallar un
mercado adecuado para tan maravilloso producto y para ello se comienza por la realización de un
análisis económico. El entusiasmo de los dirigentes y la utilización de los datos no cuantitativos
obtenidos por el químico, hacen que los cálculos muestren al producto como un seguro triunfador y eso
hace que el entusiasmo aumente más aún.
La presión ejercida sobre el departamento de desarrollo comercial hace que encuentren el nuevo mercado
lo antes posible y con ello se confirman las optimistas predicciones del estudio económico y el proyecto se
pasa al departamento de desarrollo. Hasta ese momento el trabajo se ha ido realizando en plazos de
tiempo inferiores a los del cronograma de trabajo y el ambiente de optimismo hace pensar que el trabajo
del ingeniero de desarrollo no puede hacer otra cosa que confirmar los datos del químico y del
departamento comercial.
Pero desgraciadamente en la inmensa mayoría de los casos esto no ocurre así. El ingeniero realiza
estudios de planta piloto y siempre encuentra problemas como pueden ser: peores rendimientos y
selectividades que las predichas, menores tiempos de vida de los catalizadores, problemas con componentes
trazas en la materia prima, etc.
Después que encuentra un mínimo de dos o tres problemas, el ingeniero los discute con el químico
y generalmente esto lo disgusta. El químico piensa que su maravillosa invención está siendo torpedeada
por el ingeniero y las relaciones entre ambos comienzan a deteriorarse, lo que dificulta y alarga
considerablemente el proceso de introducción del producto al mercado, si es que realmente se puede
llevar el producto a vías de hecho.
Con ese método de trabajo el químico pudo alcanzar varias patentes y realizar un número adecuado de
publicaciones que acrecienta su prestigio, los especialista de desarrollo comercial probaron sus habilidades
en la búsqueda de nuevos mercados, el ingeniero demostró su habilidad en el trabajo a nivel de planta
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 8/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
piloto, pero la institución no logró resarcirse de los gastos realizados o en el mejor de los casos, tuvo una
demora considera ble en obtener ganancia así como una reducción apreciable en la magnitud de las
mismas".
El concepto moderno de ingenierización es totalmente distinto a esa forma de trabaja:
La ingenierización contempla la interacción de los ingenieros de las distintas especialidades
(químicos, bioquímicos, mecánicos, eléctricos, industriales, etc.) junto con los investigadores de
laboratorio (químicos, bioquímicos, biólogos, médicos, físicos, etc.), desde el inicio mismo del proceso
de I+D (6, 12, 13 y 17).
Aquí en lugar de la Ingenieria por etapas o Secuencial del enfoque tradicional se emplea el concepto de
Ingeniería concurrente (17), lo que lleva a la utilización de equipos multidisciplinarios, prácticamente
desde el inicio del proceso de escalado. Para la aplicación de la Ingenieria concurrente se necesitan
algunos requisitos elementales, como son (15):
1. Tener facilidades de comunicación entre el colectivo, que en ocasiones resulta bastante numeroso.
2. Usar técnicas de trabajo en grupo y técnicas de solución de problemas.
3. Disponer de locales de trabajo adecuados y servicios de oficina y de apoyo en general.
4. Disponer de bases de datos comunes.
Además, a este enfoque de trabajo se oponen muchos procedimientos establecidos y actitudes, entre las
que se destacan (15):
Departamentalización estructural
Sistema de estimulación diseñado para el individuo y no para el colectivo.
Dirigentes apegados a dar soluciones simples a problemas complejos.
No obstante estas dificultades la Ingeniería concurrente y en general la Ingenierización, ha demostrado
su utilidad práctica y esta forma de trabajar integrado en grupos multidisciplinarios ha sido adoptada a
nivel mundial, especialmente a partir de la década del 90. (6, 12, 13, 15, 17).
En esta concepción (Figura 1.1), se parte de que en la generalidad de los casos, el surgimiento de un
nuevo producto o tecnología es consecuencia de una demanda social que impone la necesidad de una
respuesta tecnológica y de una demanda de mercado que estimula una respuesta de la que se esperan varias
ventajas económicas o de otra índole, por lo cual la iniciativa para el desarrollo surge generamente de
instituciones o empresas motivadas por la interacción del factor social y del mercado (11).
Este proceso constituye realmente una etapa exploratoria y culmina con el planteamiento del problema a
resolver por la I+D: la necesidad de un nuevo producto o tecnología (11). Después de planteado el
problema viene una etapa preparatoria, en la cual se precisa mejor la tarea y se toman como antecedentes
todo el conocimiento anterior aportado por la bibliografía. La investigación bibliográfica reporta una
información que debe ser cuidadosamente analizada y ordenada, de forma que pueda ser
adecuadamente utilizada en cada etapa de la investigación.
A partir de esa etapa preliminar, que puede incluir un trabajo inicial de laboratorio, comienzan las
etapas fundamentales del proceso de desarrollo del nuevo producto o tecnología: las etapas de
Ingenierización, en las cuales trabaja un colectivo multidisciplinario y donde las tareas de ingeniería
de proceso se realizan en paralelo al trabajo de las distintas escalas (Figura 1.1) (7. 11. 13).
Del trabajo conjunto de investigación e ingeniería, surgen las variantes iniciales del diseño de planta,
que sirven en cada caso para diseñar y seleccionar adecuadamente el equipo que se usará en la escala
siguiente, pudiéndose decidir incluso la eliminación de algunas de las etapas, si el nivel de información así
lo aconseja.
Se llega de esa forma a la etapa final de diseño y proyectos de Ingeniería, donde se realiza toda la
documentación final del proyecto (6), la que debe estar compuesta de:
1. Diagrama de flujo y Balances de materiales y energía del proceso en su conjunto ("Flowsheeting del
proceso").
2. Definición primaria de las especificaciones de equipos y otros elementos del sistema tecnológico.
3. Diseño de ingenieria de procesos y automática de equipamiento.
4. Diseño de la planta, como un sistema integral, incluyendo los servicios con la calidad requerida,
protección del medio y del personal y las buenas prácticas de producción.
5. Proyecto Ejecutivo de los equipos y otros elementos de fabricación nacional.
6. Documentación técnica de puesta en marcha y operación.
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 9/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
tamaño del molde para la mitad de la receta, el tiempo de horneo será aproximadamente la mitad, pero eso no
siempre es recomendable, ni asegura los mejores resultados. Lo mejor es utilizar moldes más chicos".
"Para duplicar la receta.... si se trata de cakes o panetelas deberá usarse, para más seguridad, doe moldes
del tamaño que indica la receta, pero si se desea podrá usarse uno que tenga el doble de capacidad, cuidando
el tiempo de horneo, que será entonces mayor y muy variable de acuerdo con las condiciones del medio".
¿Puede Vd. explicar cuáles son las variaciones que se producen en el horneo durante el escalado
(ascendente o descendente) que hacen necesario variar el tiempo de horneo?.
1.7 Situación del escalado en Cuba.
El insuficiente desarrollo de los procesos de escalado constituye una de las dificultades que se
presentan en las condiciones actuales de Cuba, al tratar de avaluar técnica y económicamente los
resultados científicos (1). El no dominio de estos procedimientos ha sido la causa de no pocos intentos
fallidos y de procesos industriales deficientes (6, 15).
Los ejemplos de este sentido son abundantes y es posible ejemplificarlos con las dificultades que
han existido con el desarrollo del proceso industrial de fermentación del bagazo en estado sólido para la
producción de alimento animal (sacharina), el cual no ha podido cumplir con las expectativas que los
elevados contenidos de proteína obtenidos en las pruebas a pequeña escala, hicieron surgir.
Esta situación hizo necesario que en 1991 el Consejo Científico Superior de la Academia de Ciencias de
Cuba (A.C.C.) analizara un estudio realizado al efecto por una Comisión temporal de ese Consejo (1) y
que se realizara un estudio similar para su discusión en el Polo Científico del Oeste en 1992 (6).
Como resultado de esos análisis se adoptaron un grupo de medidas encaminadas a revertir esta situación,
entre las que se destaca la organización de eventos científicos internacionales sobre esa temática, llevados
a cabo con éxito en l992, 1993 y 1995.
Otras recomendaciones se refieren al papel que deben jugar los Centros de Educación Superior del país
en la profundización del trabajo sobre escalado e ingenierización y en ese sentido destacan las palabras del
Ministro de Educación Superior, Dr. Fernando Vecino Alegret, el cual planteó, en su intervención del 2
de mayo de l993, en el Seminario de Perfeccionamiento para dirigentes de la Educación Superior:
"Una insuficiente infraestructura tecnológica, un pobre desarrollo de los procesos de
escalado y la insuficiente evaluación económica, son barreras aún presentes para alcanzar resultados
que reporten verdaderos beneficios económicos y sociales, a partir de la investigación científica.
En la solución de este problema, las universidades pueden hacer una importante contribución al
país, razón por lo que hemos incluído entre nuestros objetivos principales trabajar en el escalado e
ingenierización de procesos para el desarrollo de aquellas tecnologías vinculadas con resultados
científicos obtenidos por los Centros de Educación Superior o por otras instituciones del país".
CAPITULO 2
"Técnicas a emplear en el proceso de Escalado".
2.1 EL PRINCIPIO DE SEMEJANZA
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 11/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
De todos esos conceptos, los primarios resultan los de modelo y prototipo, los cuales se definen de la
forma siguiente:
"Un modelo es un dispositivo o medio que está concebido de tal manera que puede ser usado para
predecir el rendimiento de un prototipo. El prototipo, a su vez, es el sistema físico a escala completa,
que va a ser modelado (8).
El prototipo no tiene necesariamente que existir materialmente antes que su modelo. Lo determinante
en el trabajo con modelos y prototipos es la relación que existe entre el comportamiento de las unidades
de pequeña y gran escala, con independencia de cual de ellas exista primero en el tiempo.
Lo que sí resulta indispensable, cuando se concibe el modelo de un prototipo aún inexistente, es que esa
concepción se haga teniendo en mente el tipo y forma de la unidad a gran escala que se pretende obtener
(3), para lo cual se utilizará la información obtenida antes de comenzar las etapas de escalado (2).
Esta consideración hace que en la mayoría de los casos el escalado de un producto o proceso desde
el nivel de laboratorio hasta el nivel industrial (scale-up), sea realmente precedido por el proceso de
escalado desde el equipo industrial supuesto hasta el laboratorio (scale-down), lo que demuestra que
estos dos procesos no son más que etapas de un único e integral proceso de escalado.
Para la realización de ese proceso se utilizan fundamentalmente los métodos basados en el Principio de
Semejanza y la Modelación Matemática, o una combinación de ambos (1,11), aunque en este texto se
tratará especialmente el método del Principio de Semejanza, de manera tal que con la metodología
empleada se puedan conocer los casos en que se necesite el apoyo de la Modelación Matemática.
El Principio de Semejanza se aplica a los sistemas en los cuales se emplean modelos homólogos, o sea
aquellos modelos que sólo se diferencian del prototipo en el tamaño o escala. La modelación matemática
se aplica tanto a modelos homólogos como a los analógicos, ya sea como método único de escalado en
los casos en que existe suficiente información para ello, o en unión con el Principio de Semejanza, en la
mayoría de los casos.
2.1.2 El Principio de Semejanza.
El Principio de Semejanza tiene que ver con las relaciones entre sistemas físicos de tamaños
diferentes y es por consiguiente fundamental para la ampliación y disminución de escala en los
procesos físicos y químicos. Este principio fué enunciado por primera vez por Newton, para sistemas
compuestos por partículas sólidas en movimiento y sus primeras aplicaciones prácticas fueron en los
sistemas fluídos, campo en el cual ha probado ser particularmente útil (3,4,9).
Muchos científicos relevantes tomaron parte en el desarrollo de la Teoría de los Modelos, formulando el
principio de semejanza y sus consecuencias con un alto grado de rigurosidad (3). Las aplicaciones
iniciales de este principio fueron en la construcción naval y posteriormente se extendieron a otros
campos
de la ingeniería mecánica y civil y a la aeronáutica.
En el campo de la Ingeniería Química, las aplicaciones prácticas iniciales se dirigieron a la
correlación del rendimiento de mezcladores de propelas, paletas y turbinas, semejantes
geométrìcamente y se extendieron posteriormente a otros campos más complejos hasta llegar al desarrollo y
aplicación de la semejanza química para el escalado de los reactores químicos (12, 16, 17).
Para la aplicación del principio (3), se parte de considerar que los objetos materiales y los sistemas
físicos en general, se caracterizan por tres cualidades: tamaño, forma y composición, las cuales son
variables independientes. Esto quiere decir que dos objetos pueden diferir en tamaño teniendo la misma
composìción
química y forma o pueden ser iguales en forma pero tener diferentes tamaños y estar compuestos de
materiales diferentes.
El Principio de Semejanza está especialmente ligado con el concepto general de forma, aplicado a
sistemas complejos, que incluye no solamente las proporciones geométricas de sus miembros sólidos y
superficies, sino también factores como los patrones de flujo de fluídos, gradientes de temperaturas,
perfiles de concentración, etc.
En términos más precisos se define que:
El Principio de Semejanza establece que la configuración espacial y temporal de un sistema
físico, se determina por relaciones de magnitud dentro del sistema mismo y no depende del tamaño
del sistema ni de las unidades de medida en las cuales se miden esas magnitudes.
Estas relaciones de magnitud pueden ser medidas de dos formas diferentes: especificando las
proporciones entre diferentes mediciones en el mismo cuerpo (proporciones intrínsecas o factores de
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 12/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
Hay que tener en cuenta que si bien estrictamente hablando, cada una de esas semejanzas requiere del
cumplimiento de todas las anteriores a ella, es muy difícil lograr eso en la práctica y por ello en muchas
ocasiones es necesario aceptar una aproximación, por ejemplo, a la semejanza química, con sustanciales
divergencias en la semejanza mecánica.
También hay que considerar que todos los casos de Semejanza de hecho contienen un elemento de
aproximación, debido a factores de distorsión que estrán siempre presentes y que impiden que en la
realidad se pueda obtener una semejanza ideal. Por ejemplo, dos conductos para fluidos pueden ser
diseñados y construídos con dimensiones geométricamente semejantes, pero es virtualmente imposible
hacer también semejante geométricamente la rugosidad superficial, y esas diferencias pueden tener
alguna influencia
sobre los patrones de flujo en ambos conductos.
Sin embargo, a menudo esas desviaciones de la semejanza ideal son despreciables y la aproximación
obtenida es totalmente válida a los efectos prácticos. En los casos en que no se logre ésto, se tienen que
considerar los llamados efectos de escala e introducir correcciones de alguna clase. a la hora de realizar los
escalados ascendentes o descendentes.
En estas discusiones sobre semejanza, es necesario referirse frecuentemente a cantidades
correspondientes y sus relaciones en sistemas semajantes. En esos casos en el numerador se colocarán
siempre las magnitudes referidas al prototipo y se diferenciarán de las del modelo por un apóstrofe. Las
relaciones entre ambas cantidades correspondientes se expresarán empleando caracteres en negrita, lo que
resulta una forma conveniente y compacta de representar las relaciones de escala.
Semejanza geométrica.
La semejanza geométrica se define mejor en términos de correspondencia y por tanto por el
factor de escala L, qurelaciona las distintas dimensiones lineales de un sistema con las del otro y que se
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 13/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
donde la relación o factor de escala lineal L es constante, se puede decir entonces que esos dos puntos y
todos los otros pares de puntos cuyas coordenadas espaciales estén similarmente relacionadas en
términos de L, son puntos correspondientes.
Se define entonces que dos cuerpos son geométricamente semejantes cuando para cada punto en uno
de ellos existe al menos un punto corrrespondiente en el otro.
El concepto de semejanza geométrica se ilustra en la figura 2.1, donde x - x', y - y' y z -z'. son
coordenadas correspondientes, P y P' puntos correspondientes y L y L' longitudes correspondientes.
donde X, Y, y Z, son relaciones de escala constantes, no necesariamente iguales entre sí. En los
casos en que las relaciones de escala son diferentes en las distintas direcciones, se considera que se tiene
una semejanza distorsionada.
Las aplicaciones de esos conceptos geométricos a las plantas de procesos sugieren diferentes tipos de
aparatos a pequeña escala que podían ser considerados semejantes a los aparatos de gran escala. Por
conveniencia se ha convenido que los aparatos a gran escala se denominen prototipos,con independencia
de si existen primero o después que el aparato de pequeña escala, mientras que una réplica semejante
geométricamente de un prototipo completo se denomina modelo, si las relaciones de escala son iguales en
todas
las direcciones o modelo distorsionado si las relaciones de escala son diferentes en algunas de las
direcciones.
Cuando el prototipo tiene una estructura múltiple, compuesta por elementos sustancialmente idénticos,
como por ejemplo, un intercambiador de calor tubular, una torre empacada, un filtro prensa o un
reactor catalítico, el aparato a pequeña escala puede ser un elemento, o sea una réplica a escala completa de
una o más
células completas o unidades componentes del prototipo. También el aparato a pequeña escala puede ser un
elemento modelo, o sea un modelo a escala de un elemento del prototipo completo y ese elemento
modelo puede ser además un elemento modelo distorsionado.
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 14/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
Todas esas relaciones geométricas se ilustran en la figura 2.2, en la que se muestra también la relación de
sección B , la cual es la relación entre el área de la sección transversal del prototipo con relación a la del
elemento o del respectivo número de células unitarias o componentes. Los modelos son definidos a través
de la relación de escala L y los elementos modelos tienen a la vez una relación de sección B y una o más
relaciones de escala.
El concepto de elemento es útil solamente cuando los efectos provocados por las paredes del
recipiente pueden ser ignorados o controlados independientemente, como es el caso de un reactor
catalítico, donde la superficie frontera es normalmente despreciable comparada con la superficie
interior.
También puede ser permisible, en ciertas circunstancias, considerar un recipiente vacío como un
elemento de uno grande, cuando, por ejemplo, el recipiente pequeño es controlado térmicamente
con un enchaquetado adiabático. Lo fundamental en un elemento es que bajo idénticas condiciones debe
producir el mismo grado de cambio que produce el prototipo, pero en una menor cantidad de materia.
Por ejemplo una torre empacada es posible dividirla verticalmente en elementos, cada uno de los
cuales tiene la misma altura de cama que el prototipo, pero si se divide horizontalmente o se reduce en
altura, las partes se convierten en elementos diferenciales los cuales no son susceptibles de ser tratados
con los conceptos de semejanza. De igual forma, una sola fila de tubos puede considerarse como un elemento
de un condensador vertical (Figura 2.3) (Johnstone y Thring, 1957).
Semejanza mecánica.
Esta semejanza puede ser considerada una extensión del concepto de semejanza geométrica a los sistemas
estacionarios o en movimiento, bajo la influencia de fuerzas. Según el tipo de sistemas y de fuerzas,
esta semejanza puede ser estática, cinemática o dinámica.
Figura 2.3 Una fila de tubos en un condensador vertical, como ejemplo de elemento (De Johnstone y
Thjring, 1957)
Con esa base la semejanza estática se define como:
Dos cuerpos geométricamente semejantes son semejantes estáticamente cuando ante tensiones
constantes, sus deformaciones relativas son tales que permanecen geométricamente semejantes.
En ese caso la relación de los desplazamientos correspondientes serán iguales a la relación de escala
lineal y los esfuerzos en puntos correspondientes serán también iguales.
Cuando el modelo tiene una semejanza geométrica distorsionada, las relaciones requeridas de las
formas correspondientes para la semejanza estática serán diferentes en las diferentes direcciones.
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 15/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
Esto ocurre también cuando uno o ambos cuerpos son anisotrópicos y tienen diferentes módulos
elásticos en las diferentes direcciones.
La semejanza estática es principalmente de interés para los ingenieros mecánicos y de estructuras, los
cuales emplean modelos para predecir las deformaciones elásticas o plásticas de miembros
tensionados o de estructuras de formas complejas.
Semejanza cinemática.
La semejanza cinemática se relaciona con sólidos o sistemas fluidos en movimiento, lo que añade
a las tres coordenadas espaciales, la dimensión adicional del tiempo.
Los tiempos se miden partiendo de un cero arbitrario para cada sistema y se definen los tiempos
correspondientes como los tiempos tales en los cuales t'/t = t constante, siendo t la relación de escala de
tiempo. A su vez la diferencia entre pares de tiempos correspondientes se denominan intervalos
correspondientes y las partículas semejantes geométricamente que se centran sobre puntos
correspondientes en tiempos correspondientes se denominan partículas correspondientes.
La semejanza cinemática se define entonces como:
Los sistemas en movimiento semejantes geométricamente son cinemáticamente semejantes, cuando
partículas correspondientes trazan trayectorias semejantes geométricamente, en intervalos de tiempo
correspondientes.
El concepto de semejanza cinemática se ilustra en la figura 2.4. Si la relación de escala de tiempo t es
mayor que la unidad, el prototipo realizará movimientos más lentos que el modelo y viceversa. El
concepto de relación de escala de tiempo es menos familiar que el de relación de escala lineal y por ello,
para propósitos de ingeniería es más conveniente calcular en términos de velocidades correspondientes, las
cuales son las velocidades de las partículas correspondientes en tiempos correspondientes.
En el caso de la semejanza geométrica distorsionada, las relaciones de las velocidades
correspondientes serán diferentes en las diferentes direcciones.
La semejanza cinemática es un estado de particular interés para los ingenieros químicos, porque si dos
sistemas de fluidos son geométricamente semejantes, entonces los patrones de flujo también lo serán y
las variaciones con respecto al tiempo de las transferencia de calor y masa en los dos sistemas,
conformarán una relación simple entre sí.
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 16/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
segundo y la velocidad máxima vm, se mide con un tubo Pitot en el eje del tubo o cilindro. Para que haya
semejanza cinemática, la relación v/vm debe ser constante.
La figura 2.5 muestra como varía la relación v/vm para flujo continuo en tuberías rectas, graficada
contra la relación v/vc, conocida como velocidad reducida. En la región laminar (v/vc < 1 ) y de nuevo a
altas velocidades, v/vm es constante o casi constante, pero inmediatamenmte por encima de la región
de la velocidad crítica, varía marcadamente con la velocidad.
Esta figura resulta válida también para tuberías en forma de serpentín y recipientes cilíndricos,
siempre y cuando se emplee la velocidad reducida en lugar de la velocidad real, a pesar de que los valores
de la velocidad crítica serán diferentes.
Figura 2.5 Variación de la relación V/Vm en una tubería recta (De Johnstone y Thring, 1957).
Esta figura ilustra la importante conclusión de que a velocidades de flujo muy altas o muy bajas los
sistemas de flujo de fluidos monofásicos que son geométricamente semejantes, pueden ser tratados
como semejantes cinemáticamente, con independencia de la variación de la velocidad del flujo.
Semejanza dinámica.
La semejanza dinámica se relaciona con las fuerzas que aceleran o retardan masas en movimientos en
sistemas dinámicos. Las fuerzas de una misma clase (gravitacional, centrífuga, etc.) que actúan sobre
partículas correspondientes en tiempos correspondientes, se denominan fuerzas correspondientes.
Los sistemas en movimiento geométricamen-te semejantes son dinámicamente semejantes cuando
las relaciones entre todas las fuerzas correspondientes son iguales.
En los sistemas fluidos o en los sistemas compuestos por partículas sólidas discretas, la
semejanza cinemática necesariamente conlleva la semejanza dinámica, puesto que el movimiento del
sistema es función de las fuerzas aplicadas al mismo. Sin embargo en máquinas o mecanismos en
movimiento cuyas partes están obligadas a seguir trayectorias fijas, es posible tener semejanza cinemática
sin ninguna relación fijada de fuerzas aplicadas. En una máquina, sólo algunas de las fuerzas sirven para
acelerar las masas en movimiento, mientras que otras producen tensiones estáticas en los miembros
restringidos, provocando resistencia friccional que se disipa como calor.
Por ende los paralelogramos o polígonos de fuerzas para partículas correspondientes serán
geométricamente semejantes y, como una consecuencia adicional, las relaciones de diferentes fuerzas en
el mismo sistema, serán también constantes.
Estas relaciones son las proporciones o relaciones intrínsecas que determinan la "forma" dinámica de un
sistema de la misma manera que las relaciones entre las dimensiones lineales determinan la forma
geométrica. En los sistemas fluidos las fuerzas principales que actúan son las de presión, inerciales,
gravitacionales, viscosas e interfaciales y por consiguiente, las relaciones entre las magnitudes de esas
fuerzas en puntos correspondientes, expresadas como grupos adimensionales, constituyen los criterios de
semejanza dinámica.
Para los llamados sistemas homólogos, o sea los sistemas dinámicos semejantes geométricamente en los
cuales las propiedades físicas y químicas de los componentes materiales son iguales, generalmente no es
posible establecer más de dos relaciones entre tres tipos de fuerzas, iguales en ambos sistemas. Cuando los
sistemas no son homólogos, o sea cuando los materiales empleados en los dos sistemas son de
diferentes propiedades físicas, llega a ser posible mantener tres relaciones constantes, involucrando
cuatro tipos diferentes de fuerzas.
Cuando el comportamiento de un sistema es influído significativamente por fuerzas de más
de cuatro tipos, la semejanza dinámica sólo puede establecerse en unos pocos casos especiales,
posiblemente con la ayuda de la distorsión geométrica.
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 17/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
En los sistemas de flujo de fluidos, la semejanza dinámica es de importancia directa cuando se desean
predecir caídas de presión o consumos de potencia. En el caso de la transferencia de calor y masa o en
las reacciones químicas, su importancia es principalmente indirecta, como una vía para establecer
la semejanza cinemática.
Semejanza térmica.
La semejanza térmica tiene que ver con los sistemas en los cuales hay un flujo de calor, por lo que
introduce la dimensión de temperatura, además de las dimensiones de longitud, masa y tiempo.
El calor puede fluir de un punto a otro por radiación, convección, conducción y movimiento global de
materia mediante la acción de un gradiente de presión. Para los primeros tres procesos se requiere un
gradiente de diferencias de temperatura y por ello, si se mantienen las otras condiciones iguales, la
variación con respecto al tiempo del flujo de calor entre dos puntos varía con la diferencia de
temperatura entre ellos.
El cuarto proceso de transferencia de calor, el movimiento global de la materia, depende a su vez de la
forma de movimiento o del patrón de flujo del sistema y por consiguiente en sistemas térmicos en
movimiento, la semejanza térmica requiere de la semejanza cinemática.
Antes de definir la semejanza térmica, se necesita definir la diferencia de temperatura
correspondiente, la cual es aquella diferencia de temperatura en tiempos correspondientes entre un par de
puntos dados en un sistema y el par de puntos correspondientes del otro sistema.
La semejanza térmica se define entonces planteando que:
Dos sistemas geométricamente semejantes son térmicamente semejantes cuando la relación entre las
diferencias de temperatura correspondientes es constante y cuando los sistemas, si están en movimiento,
son cinemáticamente semejantes.
En los sistemas semejantes térmicamente, los patrones de las distribuciones de temperaturas
formados por las superficies isotérmicas en tiempos correspondientes, son geométricamente
semejantes. La relación de las diferencias correspondientes de temperaturas puede ser llamada la
"relación de escala de temperatura" y cuando esta relación es igual a la unidad, las temperaturas en
puntos correspondientes son iguales o difieren una de otra en un número fijo de grados.
La semejanza térmica requiere que las razones de cambio correspondientes de los flujos de calor
mantengan una relación constante entre sí.
Semejanza química.
La semejanza química se relaciona con sistemas en los que se desarrollan reacciones químicas y en
los cuales la composición varía de un punto a otro y, en los procesos discontinuos o cíclicos de un
instante a otro. Para esta semejanza no se requiere introducir nuevas dimensiones, pero hay uno o más
parámetros de concentración, en dependencia del número de compuestos químicos variables
independientes, con respecto a los cuales se establece la semajanza. No es necesario tampoco que la
composición química en los dos sistemas sea la misma, aunque debe existir una relación fija entre
las concentraciones puntuales de los compuestos que son comparados.
Cuando un sistema contiene un componente variable B y se desea establecer semejanza con respecto
a un componente A, ambas sustancias se denominarán componentes correspondientes. La concentración
de un componente químico dado en un elemento de volumen en un tiempo dado, depende de la
concentración inicial,
la razón mediante la cual el componente es generado o destruído por la acción química, la razón por la
que se difunde hacia adentro o hacia afuera del elemento de volumen y la razón por la cual es
transportado por movimiento global del material.
A su vez, la variación con respecto al tiempo de la acción química depende de la temperatura, la
razón de cambio de la difusión depende del gradiente de concentración y la razón de cambio del
transporte global depende de la trayectoria del flujo.
Por consiguiente la semejanza química necesita tanto de la semejanza térmica como de la
cinemática y depende de las diferencias de concentración más que de las concentraciones absolutas.
Se definen las diferencias de concentración correpondientes, como la diferencia de concentración en
tiempos correspondientes, entre un par de puntos dados de un sistema y el par de puntos
correspondientes del otro sistema. Con esa base se define la semejanza química:
Sistemas semejantes geométrica y térmicamente son semejantes químicamente cuando las
diferencias de concentraciones correspondientes mantienen una razón constante entre ellas y
cuando dichos sistemas, si están en movimiento, son cinemáticamente semejantes.
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 18/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
En los sistemas semejantes químicamente se puede considerar que los patrones formados por las
superficies de composición constante en tiempos correspondientes, son geométricamente semejantes.
La relación de las diferencias de concentraciones corrrespondientes se pueden llamar la "relación de
escala de concentraciones" y cuando ese valor es igual a la unidad, las concentraciones en puntos
correspondientes o son iguales o difieren en una cantidad constante.
En la práctica los reactores químicos de escala piloto son casi siempre operados en iguales
condiciones de temperatura y concentración que el prototipo y la relación de semejanza reclamada
es la de iguales temperaturas y concentraciones de productos en puntos y tiempos correspondientes, lo
cual es un caso especial de la definición general dada más arriba.
Además, la variación con respecto al tiempo de una reacción química puede en teoría ser variada
independientemente, cambiando la temperatura. En la práctica, sin embargo, tanto el equilibrio químico
como las razones de cambio relativas de las reacciones colaterales indeseadas varían con la temperatura y
hay normalmente un rango estrecho de temperaturas dentro del cual la reacción puede proceder par
asegurar el máximo rendimiento, tanto en la pequeña como en la gran escala.
Tanto en el modelo como en el prototipo, el tiempo de reacción será del mismo orden y este
requerimiento fija las velocidades relativas en sistemas de flujo continuo. Esas velocidades son
incompatibles con las velocidades necesarias para semejanza cinemática, exepto a velocidades mmuy
altas o muy bajas, como se pudo apreciar en la figura 2.4.
Por consiguiente, escalando ascedentemente una reacción química continua, y especialmente cuando
hay un tiempo óptimo de reacción, después del cual el rendimiento o la calidad se reduce, es ventajoso
operar tanto el prototipo como el modelo en la región laminar o con un alto grado de turbulencia. Si
ninguna de esas condiciones es posible, habrá un efecto de escala impredecible y sería prudente en ese
caso,o hacer el escalado ascendente en varias etapas o emplear amplios factores de seguridad en el
diseño.
Análisis Dimensional.
El análisis dimensional es una técnica para expresar el comportamiento de un sistema físico en
términos de un número mínimo de variables independientes y en una forma tal que no resulten
afectadas por los cambios de las magnitudes de las unidades de medidas. Las cantidades físicas se
agrupan en grupos adimensionales consistentes en relaciones de magnitudes iguales (longitudes,
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 19/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
velocidades, fuerzas, etc.) que caracterizan el sistema, los que constituyen las variables en la
ecuación adimensional de estado (o de movimiento) del sistema.
El análisis dimensional puede brindar resultados incorrectos a menos que se hayan tenido en cuenta
cada una de las variables que influyen significativamente en el sistema que se está analizando, por lo cual es
necesario conocer bastante sobre los mecanismos de un proceso antes de poder aplicar con confianza este
método. La clave del éxito está en la selección inicial de las variables.
Si la lista de variables es muy larga y se incluyen por lo tanto variables cuyo efecto no es apreciable, los
factores superfluos se pueden eliminar a veces durante el análisis, pero en la mayoría de los casos esto no
es posible y el número de criterios de semejanza obtenidos resulta innecesariamente grande y el
problema de alcanzar la semejanza aparece más difícil de lo que realmente es. Si por el contrario, se
omite alguna de las variables realmente relevantes en el sistema, el análisis dimensional llevará a
una falsa conclusión.
De lo antes expuesto se deriva el hecho de que la aplicación del análisis dimensional aisladamente es
muy difícil que nos conduzca a obtener un conocimiento completamente nuevo. Muchas de las
aplicaciones clásicas de este método lo que han hecho realmente es confirmar las relaciones que ya se
conocían o al menos se sospechaban, lo que de hecho elimina la dificultad principal de la selección inicial
de las variables.
Para obtener los criterios de semejanza a partir del Análisis Dimensional se utiliza el Teorema de
Buckingham y el Método de Railegh y se parte de conocer todas las variables que intervienen en un
proceso dado, como se ha dicho anteriormente. La aplicación de estos métodos se pueden estudiar en
diferentes textos como los de Jonhstone y Thring (1957), Perry y Green (1986) y Rosabal (1988).
Ecuaciones Diferenciales.
Para muchos de los procesos físicos y químicos que se utilizan en las ingenierías química y bioquímica,
se conocen las ecuaciones diferenciales fundamentales, pero la dificultad radica en su integración, lo
que solamente puede ser hecho matemáticamente para sistemas de forma determinada y no muy
elevado rango de complejidad. Este es el caso, por ejemplo, del flujo laminar de fluido en tuberías
rectas, el que se resuelve por la conocida ecuación de Poiseuille (3).
Muy frecuentemente el sistema o proceso es tan complejo que resulta imposible una integración
matemática y es necesario integrarla empiricamente y de esa forma se han obtenido la mayor parte de las
ecuaciones de las ingenierías química y bioquímica. Sin embargo su carácter empírico hace que las mismas
sólo sean válidas cuando el sistema al cual se aplican mantiene cierta semejanza geométrica con el
sistema del cual fueron derivadas experimentalmente.
En los casos en que la ecuación diferencial que gobierna un sistema se conoce y siempre y
cuando ésta sea completa y dimensionalmente homogénea, resulta fácil poner la ecuación en forma
adimensional y derivar entonces de ella los criterios de semejanza necesarios, sin tener que aplicar los
métodos del análisis dimensional, lo que representa varias ventajas.
En primer término se elimina una de las principales dificultades del análisis dimensional, que es la de
asegurar que ninguna variable significativa sea ignorada y en segundo lugar, utilizando las ecuaciones
diferenciales se puede mostrar el sentido físico de los grupos adimensionales obtenidos, como una
relación de flujos, fuerzas o cantidades análogas.
Estas ventajas no quieren decir que la información obtenida por este método no esté sujeta a errores,
como son los producidos por despreciar algunas variables menores durante el desarrollo de la ecuación,
pero evita los errores adicionales que se pueden incorporar debido a una incorrecta integración de la
ecuación o una evaluación imprecisa de las constantes.
Para derivar esos criterios de semejanza de las ecuaciones diferenciales, se procede de la forma
siguiente:
1- Se reduce la ecuación diferencial a una forma dimensional generalizada, omitiendo los signos
diferenciales y las constantes numéricas.
2- Se divide la ecuación por uno cualquiera de sus términos, de manera tal que todos sus miembros se
tornen adimensionales.
Para los procesos en serie, las ecuaciones físicas tienen la forma de las ecuaciones en serie y los
criterios adimensionales son relaciones de las fuerzas impulsoras o de las resistencias. Para los procesos en
paralelo las ecuaciones físicas tienen la forma de las ecuaciones paralelas y los criterios adimensionales
son relaciones de flujos, conductancias o cantidades totales. Para los procesos serie-paralelo, las
ecuaciones compuestas, deben ser resueltas en sus componentes simples, en serie y en paralelo, a
cada una de las cuales se les aplicara uno o más criterios adimensionales.
Este procedimiento se aplica a los diferentes tipos generales de procesos, o sea:
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 20/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
Procesos mecánicos.
1- Deformación elástica de sólidos
2- Deformación plástica de sólidos
3- Flujo de sólidos granulares
4- Flujo de fluídos
Procesos térmicos.
5- Conducción en sólidos
6- Convección forzada en fluidos
7- Radiación
Procesos difusionales.
8- Conveccion forzada en fluidos
Procesos químicos.
9- Reacciones homogéneas
10- Reacciones heterogéneas
Ejemplos amplios de la aplicación de estos procedimientos en todos estos procesos se hallan en el
Jonhstone y Thring (1957) y en el Rosabal (1988).
o lo que es igual:
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 21/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
Es decir, se puede lograr una semejanza dinámica rigureosa si se escoge un líquido para el modelo con
una viscosidad cinemática mucho menor que la del fluido en el prototipo. Por ejemplo, si en el prototipo se
va a emplear agua, se puede considerar el empleo de mercurio en el modelo, ya que el mercurio tiene una
viscosidad
cinemática a 20 C, 8.9 veces menor que la del agua y en ese caso la reducción de escala debe ser:
o sea:
Por lo cual el modelo deberá ser 4,3 veces menor que en el prototipo.
Por consiguiente, cuando se escala un proceso físico o químico complejo, resulta ventajoso escoger
condiciones tales que las variaciones con respecto al tiempo del proceso completo dependan
predominantemente de un sólo criterio adimensional, aunque en los experimentos con modelos puramente
físicos en los cuales se tenga un sistema no homólogo, se pueden utilizar dos criterios adimensionales
a la vez.
El proceso determinante en la razón de cambio de un sistema debe distinguirse del proceso principal que
tiene lugar o del que es el objetivo de la operación a efectuar. Por consiguiente, las reacciones
químicas pueden estar sujetas a un régimen dinámico cuando el sistema es heterogéneo y la velocidad de
reacción muy alta. De manera semejante, la transferencia de calor está sujeta a un régimen dinámico
cuando la convección forzada es la que controla la rapidez, mientras que el régimen será térmico
cuando controlan la radiación o la convección natural.
El término régimen se emplea en este texto para distinguir el proceso que determina la razón de
cambio de un sistema en el cual pueden estar ocurriendo otros varios procesos en serie o en paralelo, o
en otras palabras, régimen es la fuerza particular, flujo o factor de resistencia que controla la razón
de cambio global del sistema. En un sistema estático por ejemplo, el régimen distingue los factores que
gobiernan el desplazamiento total.
En un sistema dado, el régimen depende de las magnitudes relativas de las diversas resistencias de la
reacción y las mismas varían con las condiciones de operación. Por ejemplo, en una reacción química
que está sujeta a un régimen dinámico, el incremento de la agitación puede llegar a disminuir la resistencia
de la difusión hasta un punto en el cual la resistencia de la conversión predomine y el régimen se
convierta en químico. Entre estos dos regímenes hay una región intermedia de régimen mixto en la cual
tanto la resistencia de la conversión como la de la difusión son apreciables.
Correspondiendo a cada una de las clases principales de regímenes (estático, dinámico, térmico o
químico), existen diversas variantes posibles de acuerdo con la naturaleza de la fuerza motriz o factor
de resistencia que controle la resultante, ya sea ésta una cantidad total o variación con el tiempo Por
ejemplo, un régimen dinámico fluido puede ser controlado por la relación de las fuerzas de inercia a las
de viscosidad, gravedad o tensión superficial y a su vez, el régimen controlado por la viscosidad puede
ser laminar o turbulento.
Teniendo en cuenta lo antes expuesto, para realizar un escalado ascendente o descendente confiable,
son necesarias dos condiciones:
1- El régimen debe ser relativamente "puro", o sea la variación con respecto al tiempo de la
reacción debe depender principalmente de un único grupo adimensional.
2- El régimen debe de ser del mismo tipo tanto en el prototipo como en el modelo.
La primera condición ya ha sido analizada y la segunda requiere que, cuando se planifican una serie de
experimentos con modelos o en plantas piloto, se tengan constantemente en mente las condiciones
correspondientes en el prototipo, para impedir que el régimen vaya a ser diferente. Esto puede ocurrir
principalmente cuando es necesario extrapolar las relaciones de semejanza .
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 22/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
Tabla 3.1 Constantes de tiempo para diferentes procesos que ocurren en un bioreactor industrial
(fermentación ácido glucónico) Tomado de Mattews y Reuss, 1993.
Proceso Ecuación Const. de
tiempo
Fenóm. Transp.
Transf.
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 23/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
masa gas-
líquido 5.5 - 11.2
Tiempo
circulación
12.3
Tiempo
residen-
cia del gas 20.6
Transf. de
calor
330 - 650
Conversión
Consum.
de oxígeno
0.7 - 16
Utiliza-
ción del
sustrato 5.5E+4
Creci-
miento
biomasa 1.2E+4
Produc-
ción de
calor 350
3- Cuando el coeficiente de temperatura de 10 es mayor que 1.5 y menor que 2 y el índice de Reynolds
está por debajo de 0.5, prevalece un régimen dinámico-químico mixto.
Cuando el coeficiente de temperatura de 10C de una reacción está por debajo de 2 y el índice de
Reynolds es sustancialmente mayor que cero, pero menor que 0.6, tanto la resistencia de la difusión como
la resistencia de la conversión tienen una influencia considerable en la velocidad de reacción global.
También, en el caso en que nos encontremos en un régimen dinámico puro, esto nos indica que tanto la
viscosidad como la gravedad influyen significativamente en la razón de cambio del sistema, o sea que
tienen que ser tomados en cuenta simultáneamente los números de Reynolds y de Froude. En ambos casos
estamos en presencia de lo que se conoce como régimnen mixto.
En general, un régimen mixto existe cuando hay dos o más resistencias de reacción que influyen
significativamente la rapidez de la reacción, las cuales conforman relaciones de escala lineales diferentes.
De esta forma, si el proceso se escala con respecto a una clase de resistencia, no habrá entonces
semejanza con respecto a la otra.
Este tipo de problemas se encuentra constantemente en la práctica y para ello se necesita poder
contar con diversos métodos empíricos que permitan corregir una de las resistencias mientras se escala
con respecto a la otra. Por esta causa la presencia de un régimen mixto marca siempre un punto de peligro
en cualquier proceso nuevo, puesto que no siempre se puede encontrar una base confiable para predecir el
comportamiento en la escala mayor a partir de los resultados de los experimentos a pequeña escala.
Algunas veces es posible sacar a la reacción de la región de régimen mixto cambiando las condiciones
de operación de manera tal que una de las clases de resistencia se haga despreciable. Por ejemplo, teniendo
en cuenta que las reacciones químicas tienen mayores coeficientes de temperatura que los
fenómenos difusionales, un incremento de la temperatura tiende a convertir un régimen químico en un
régimen dinámico controlado por la viscosidad.
De forma semejante, cuando se tiene un régimen químico heterogéneo, la reducción del grado de
agitación incrementa la resistencia de la difusión de forma tal que el régimen tiende a pasar primero a
mixto y después a totalmente dinámico. En cada caso un cambio de temperatura o agitación,
respectivamente, en cualquier dirección puede llevar a la reacción fuera del régimen mixto, siempre y
cuando el cambio pueda realizarse en la magnitud requerida. De igual forma cuando se tiene un
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 24/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
régimen mixto controlado por la gravedad y la viscosidad, un cambio en la geometría del sistema
puede eliminar el efecto de la gravedad, como ocurre cuando se introducen deflectores en un mezclador
de paletas.
Cuando es imposible o impracticable escapar de un régimen mixto mediante la modificacion de las
condiciones de operación, hay varios procedimientos mediante los cuales las dificultades inherentes
del régimen mixto pueden ser por lo menos parcialmente resueltas. Entre esos procedimientos tenemos:
1-Calcular uno de los factores de resistencia y realizar los experimentos con modelos para
determinar el otro.
El ejemplo clásico de este procedimiento es la prueba en tanques de modelos de casco de buques. En
ese caso (11), el sistema depende tanto del número de Reynolds como del número de Froude, o sea el
coeficiente de arrastre (CD) es igual a:
O sea se considera el coeficiente de arrastre total CD formado por dos coeficientes de arrastre, uno
debido a la fricción pelicular, que es proporcional al número de Reynolds y otro debido a la formación de
ondas, proporcional al número de Froude:
2- Realizar una distorsión geométrica del modelo para compensar el régimen mixto.
Por ejemplo, en el caso de un tubo simple a través del cual fluye y reacciona químicamente una mezcla
gaseosa, el calor generado se remueve del exterior del tubo por radiación y convección natural. La rapidez
global de la reacción estará influenciada tanto por la composición química como por la rapidez de la
transferencia de calor, o sea el régimen es parcialmente químico y parcialmente térmico.
Para lograr la semejanza la temperatura de reaccion debe ser la misma tanto en la escala grande como en
la pequeña y también la pérdida de calor por unidad de área debe ser igual en ambas escalas. Estos
requerimientos simultáneos no pueden ser cumplidos por un modelo, puesto que la superficie relativa del
mismo siempre es mucho mayor que la del prototipo y por consiguiente las pérdidas de calor serán
excesivas en el modelo y la temperatura de reacción no podrá ser mantenida, lo que impide la modelación.
En ese caso la semejanza puede alcanzarse, si se distorsiona geométricamente el modelo de forma tal
que el área superficial por unidad de volumen sea igual a la del prototiopo, lo que se logra manteniendo
igual el diámetro en el modelo y en el prototipo, por lo cual el modelo será un recipiente achatado, en lugar
del tubo alargado del prototipo y por ello hay que ajustar los flujos de reactivos de forma tal que el tiempo
de residencia sea igual en ambos.
Con ese modelo distorsionado en la vertical, se logra mantener la condición de igual temperatura, al ser
igual la transmisión de calor al exterior y solamente hay que tener en cuenta los posibles efectos de las
pérdidas de calor mayores que pueden existir en los extremos del modelo achatado.
Las pérdidas de calor por los extremos del recipiente modelo se pueden prevenir mediante aislamiento,
aunque se debe tener en cuenta que los efectos de los extremos sólo pueden ser despreciados en un
rango de escala moderado. Cuando la reducción de escala es grande, este método tienda a dar un modelo
con forma de torta, en el cual los efectos de los extremos pueden llegar a ser predominantes.
Bajo las circunstancias arriba mencionadas, el coeficiente de transferencia de calor interno será menor
en el modelo que en el prototipo a causa de la menor velocidad de fluido. Esta diferencia se considera que
tiene una influencia despreciable en el coeficiente global, pero la semejanza puede ser mejorada
calculando aproximadamente los coeficientes de película internos en ambos recipientes y considerando
suficiente superficie extra en el modelo para compensar la pequeña disminución del coeficiente global que
pueda producir la disminución del coeficiente interno.
En otras palabras, la discrepancia de segundo orden debido a los coeficientes de película internos se
corrige aplicando el método 1 explicado anteriormente.
Otros ejemplos de este tipo (11) se tienen en los casos de varios sistemas hidráulicos complejos como son
el diseño de aliviaderos en las presas, el control de inundaciones, el estudio de las características de los
estuarios de los ríos y la protección de puertos mediante rompeolas artificiales, entre otros, en los
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 25/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
cuales la reducción de escala es muy grande y se está en presencia de una dependencia simultánea de los
números de Froude y Reynolds.
En esos sistemas se hace necesario tomar grandes relaciones de reducción de las distancias, siendo
típico un valor de 1000 debido al tamaño de los prototipos. Sin embargo, si se toma la misma relación de
reducción para las distancias verticales, resultan profundidades demasiado pequeñas en el modelo, por lo
que hay que aplicar una semejanza geométrica distorsionada, tomándose por ejemplo, un valor de 100
para la reducción de las distancias verticales y manteniéndose 1000 para las horizontales.
3- Modificar uno de los factores controlantes mediante algún arreglo artificial en el modelo.
En el primer ejemplo anterior en lugar de un modelo distorsionado con igual diámetro que el prototipo,
puede emplearse un tubo de reacción modelo a escala, si se reduce artificialmente la pérdida de calor a
través de la superficie externa mayor del modelo, mediante el empleo de un aislante adecuado,
llevándola al mismo valor por unidad de área del prototipo no aislado. Esta solución se tratará más
ampliamente en el tema de los efectos de frontera .
sólidos.
Figura 2.6 Ejemplos de modelos a gran escala (mockups) utilizados para el desarrollo de diversos
procesos petroquímicos (De Trambouze, 1990).
En todo los casos los mockups, como los demás tipos de modelos, se han usado como complemento de
los equipos de laboratorio, banco o piloto desarrollando con los mismos la investigación de los
mecanismos físicos que son más sensibles al tamaño como son los procesos hidrodinámicos
Cuando se trata de las plantas piloto en las cuales los fluidos a procesar son iguales que los prototipos,
no se pueden utilizar estos procedimientos y hay que utilizar otros medios entre los que se destacan el uso
de elementos o modelos de elementos y la extrapolación.
Cuando el aparato prototipo tiene una estructura mútiple, es posible entonces establecer la semejanza
mediante un elemento de tamaño completo o un modelo a escala de ese elemento, con relativamente
poca reducción de escala. Esto se puede hacer, por ejemplo, en el caso de un mezclador o reactor químico
del tipo de
tanque agitado, donde el rendimiento depende del patrón de flujo global del sistema. Entonces, cuando la
semejanza dinámica resulta impracticable. se necesita algún método mediante el cual el comportamiento
del modelo pueda ser extrapolado a condiciones dinámicamente disímiles en el prototipo.
Esto conlleva a experimentar con modelos semejantes geométricamente aunque no estén necesariamente
bajo condiciones de semejanza térmica o dinámica. Las ecuaciones para sistemas de este tipo tomarán la
forma de:
(2-3)
Además, en el caso de los sistemas homólogos se cancelan también los términos relacionados con las
propiedades físicas, quedando las expresiones como relaciones simples entre las razones de de las
dimensiones lineales y velocidades, del tipo de las que han sido denominadas ecuaciones de escala,
manteniendo como únicos elementos empíricos remanentes los exponentes x e y .
Si como una aproximación final, más ajustada teóricamente, se eliminan los exponentes x e y, o la
función desconocida j, comparando sistemas semejantes geométricasmente a iguales valores de los
criterios adimensionales, entonces si :
R' = R
S' = S
se tiene:
Q' = Q (2-4)
Y esta expresión expresa el clásico principio de semejanza y define los estados correspondientes
para escalar, de forma ascendente o descendente de acuerdo con este principio.
El problema que se encuentra en la práctica con esta aproximación es que esos estados
correspondientes son, en muchas ocasiones, imposibles de alcanzar. Por esa causa , si se retorna al
principio de semejanza extendido (Ec. 2-3) se obtiene un grado mucho mayor de flexibilidad , aunque
se pierde un poco de precisión debido a la ligera variabilidad de x y de y , y esto es lo que se conoce con
el nombre de extrapolación .
La aplicación correcta de la extrapolación, mediante la ecuación 2-3, aunque teóricamente inferior a la
semejanza clásica estricta, es en principio menos susceptible a error que los cálculos hechos a partir de la
ecuación 2-2, la que contiene el factor de forma incalculable y muy variable. Esto es lo mismo que
decir que los experimentos a pequeña escala extrapolados a prototipos semejantes geométricamente pero no
semejantes dinámica o térmicamente, son mucho menos susceptibles a error que los valores calculados de
una ecuación derivada de un rango de sistemas geométricamente no semejantes.
Cuando los rangos de flujo son moderados el índice de Reynolds para transferencia de momentum, xf
es del mismo orden de magnitud que los otros tres índices, con valores entre 0,8-0,85. Cuando las
velocidades son altas, xf diverge de los otros y se aproxima a la unidad, por lo cual en esos casos el efecto
(2-5)
donde C es una constante. El valor teórico del exponente z es 0,25, pero Saunders encontró que el
mismo varía algo con la magnitud del término entre paréntesis, el cual es el producto de dos números
adimensionales, el de Grashof y el de Prandtl, o sea (Gr, Pr).
Para la evaluación del número de Grashof, la dimensión lineal L que se toma es la de la altura vertical
de un serpenín o chaqueta o el ancho medio de una superficie horizontal de calentamiento .
En el caso de la transferencia de calor por convección forzada la ecuacion de razón de cambio es del tipo
de Dittus-Boelter.y cuando se comparan sistemas homólogos, las propiedades físicas y los factores de
forma se cancelan y la ec. (2-3) se reduce a la ecuación de escala:
(2-6)
Para convección natural la ecuación de Lorentz, expresada en forma de relación se reduce a su vez a:
(2-7)
A su vez la transferencia de masa por convección forzada se describe por una ecuación similara la de
Dittus-Boelter y para sistemas homólogos, la ecuación de escala es:
(2-8)
Esta ecuación es válida sólo si el área de transferencia de masa es invariable y ésto es estrictamente
cierto solamente en el caso de la transferencia de masa desde un fluido a un sólido insoluble, o sea en la
adsorción. Cuando hay una interfase fluido-fluido, ésta está sujeta siempre a ser alterada y por lo tanto
su área cambia por los movimientos relativos de las fases. Incluso en las torres de paredes mojadas, el gas a
moderadas velocidades forma rizos en la superficie de la película de líquido. Por consiguiente la
ecuación (2-8) es de aplicación menos general, para propósitos de escalado, que las ecuaciones (2-6) y (2-7).
A su vez, la ecuación para fricción de fluido puede ser escrita como:
(2-9)
o también:
(2-10)
lo que da lugar a la siguiente ecuación de escala para sistemas homólogos:
(2-11)
Esta relación también es de menos uso que la de transferencia de calor, producto de la variabilidad de xf
entre 0.8 y la unidad. Sin embargo, si tanto el modelo como el prototipo operan a velocidades de fluidos no
menors que cuatro veces la velocidad crítica, xf puede ser tomada como la unidad y la ecuación 2-11 se
convierte en:
(2-12)
Bajo esas condiciones, la caída de presión y el consumo de potencia pueden ser escalados para
condiciones que se apartan de la semejanza dinámica. La ecuaciónn de escala para el consumo de potencia,
correspondiente a la ecuación 2-12 es entonces:
(2-13)
En todos los casos cuando se emplee el principio de semejanza extendido para escalar, ascendente o
descendentemente, es esencial verificar que el régimen permanece igual en el modelo y en el prototipo.
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 29/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
Si, por ejemplo, el movimiento del fluido fuera turbulento en el prototipo y laminar en el modelo, la
suposición de un índice de Reynolds constante será entonces completamente erróneo.
(2-14)
En el caso mencionado, para llevar la relación superficie/volumen en el prototipo al valor de la del
modelo, sería necesario instalar una superficie adicional equivalente, para lo que se necesitaría, por
ejemplo, un serpentín interior de 220 m de tubería de 25 mm de diámetro interior.
Las superficies o interfases que influyen en el rendimiento de una planta de procesos pueden ser de
frontera o interiores. La superficie de frontera es normalmente la pared del recipiente contenedor,
mientras que las superficies interiores pueden estar compuestas de tubos, anillos Raschig, gránulos, etc.,
de acuerdo con el tipo de planta, y pueden comprender también, cuando hay sistemas de varias fases
fluídos, una o más interfases de fluídos.
Un recipiente plano no tiene superficie sólida interna, aunque puede tener una interfase fluída. El área
de la interfase fluída depende principalmente de la dinámica del sistema, por ejemplo del tamaño de las
gotas de la fase líquida dispersa en la otra, lo que a su vez depende del grado de agitación a que esté
sometido el sistema, mientras que las áreas de superficie sólida son función solamente de la geometría.
Los sistemas experimentales en ingeniería química y bioquímica están normalmente contenidos en
recipientes, conductos o cámaras y limitados por superficies sólida . En este contexto se reserva la
palabra superficie para las superficies sólidas y las superficies líquidas se denominan interfases.
En un aparato a escala pequeña que constituye un elemento geométrico, la relación superficie
interior/volumen es la misma que en el prototipo, pero si el modelo es un elemento modelo o un modelo
geométrico normal, la relación se mayor en el modelo que en el prototipo, aunque esa diferencia es tomada
en cuenta en las relaciones de semejanza y no constituye un problema .
La situación es distinta, sin embargo,con la relación superficie exterior (límite o frontera) y volumen, la
cual es mayor tanto en el modelo , como en el elemento o elemento modelo, con relación al prototipo y
por ello las condiciones fuera de la frontera no necesariamente cumplen con los criterios internos de
semejanza.
Esta alejamiento que puede haber en la superficie frontera de la semejanza es el llamado efecto de
frontera o efecto de pared y los mismos pueden, a menos que sean controlados, hacer casi imposible la
predicción del rendimiento a gran escala a partir de los experimentos con modelo. Un ejemplo puede ser
un elemento de torre empacada en el cual el diámetro de la torre es solo dos o tres veces el diámetro del
anillo de empaque. En esos casos la tendencia del líquido a fluir por la pared, al igual que el gas, es
mucho mayor que en una torre grande y por ello un aparato de ese tipo daría muy poca informacion útil
con relacion a la torre a gran escala, debido al efecto de pared predominante en el modelo.
Los efectos de pared, límite o frontera, no pueden ser eliminados por incremento de la extensión del
sistema bajo control. En el caso, por ejemplo, de un recipiente de reacción modelo que pierde calor a los
alrededores por convección natural, si se intenta hacer segura la semejanza externa, encerrando el
recipiente en una cámara donde se le suministre aire a la temperatura requirida, sólo se logra hacer que el
aire que está circulando en esa cámara forme parte del sistema en estudio y que el efecto de frontera se
transfiera hacia las paredes de la cámara en lugar de las del recipiente. Sin embargo, aunque los efectos de
frontera no pueden ser eliminados teóricamente, ellos pueden ser neutralizados o compensados por
procedimientos experimentales adecuados, en dependencia del tipo de efectos que la frontera esté
ejerciendo sobre el sistema .
En general, la pared de un recipiente puede tener cuatro diferentes tipos de efectos sobre una
reacción física o química que esté ocurriendo dentro de él :
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 30/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 31/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
calor producido por la electricidad a través de resistencias eléctricas, se puede controlar la rázon de
cambio de la pérdida de calor al exterior a cualquier valor deseado, llegando incluso hasta cero.
La utilización de la camisa o de la resistencia de calentamiento para un recipiente caliente de pequeña
escala, se suele denominar una operación adiabática, aunque su verdadera función no es mantener una
verdadera condición adiabática, sino poder reducir las pérdidas de calor por unidad de capacidad en el
modelo a los mismos valores que se tendrían en la gran escala. No obstante, un equipo de planta a gran
escala es tan cercano a las condiciones adiabáticas que la semejanza se logra generalmente con una
xfaproximación a las condiciones adiabáticas en el modelo.
También hay que considerar que hay tres casos en los cuales un modelo a escala puede tener lo que se
denmomina semejanza térmica inherente, o sea que el flujo de calor por unidad de área externa que se
requiere es el mismo tanto en el prototipo como en el modelo, y no se requiere, por tanto utilizar
chaquetas ni resistencias de calentamiento, sino solamente tener el mismo espesor de aislamiento que en
el prototipo. Esos casos son los siguientes:
1.-Régimen térmico. Modelos de sistemas de transferencia de calor en los cuales los mecanismos
controlantes con la radiación y la conducción a través de las paredes del recipiente.
2.-Régimen químico. Modelos de sistemas de reacciones heterogéneas con interfase fija, en los cuales
las superficies internas (granos de catalizador, etc) son geométricamente semejantes y están en la
misma relación de escala que los recipientes de reacción, de forma tal que la actividad superficial
permanece constante.
3.-Régimen dinámico. La semejanza térmica inherente bajo un régimen dinámico es imposible tanto
para los modelos como para los elementos, pero puede ser alcanzada por un modelo de elemento de
proporciones adecuadas.
Para la semejanza bajo condiciones de régimen dinámico, la pérdida de calor superficial por unidad de
área en el modelo a escala se requiere que sea L veces más grande que en el prototipo, siendo L la relación
o factor lineal de escala del prototipo al modelo. Cuando se opera a temperaturas por encima de la
atmosférica, ese tipo de modelo necesitará ser enfriado externamente, por ejemplo por una chaqueta de
enfriamiento por agua.
Por otra parte, en el caso de un elemento semejante dinámicamente, se requiere que pierda
menos calor por unidad de área externa que el prototipo . Para recipientes de forma elongada, en los
cuales la pérdida de calor a través de los extremos es despreciable, la pérdida de calor por unidad de
área del elemento será veces la del prototipo, siendo A la relación de sección, o sea la relación
de la sección transversal del prototipo a la del elemento.
Evidentemente debe haber un conjunto particular de modelos de elementos en los cuales los
requerimientos conflictivos se cancelen y posean por lo tanto semejanza térmica inherente. Para
recipientes elongados este es el caso cuando :
(2-15)
donde U es la relación de los coeficientes de calor globales de las superficies fronteras para el prototipo
y el modelo de elemento. Generalmente U se puede tomar como la unidad y la relación queda como :
(2-16)
Esa misma relación se mantiene para procesos operando a temperaturas por debajo de la
atmosférica en los cuales el efecto de pared considerado es la transferencia de calor hacia el interior del
recipiente.
La relación requerida en el elemento modelo es posible sólo cuando el aparato tiene una estructura
múltiple o de red con una relación alta de superficie interior a superficie frontera.Por ese motivo, en el caso
de recipientes planos, no se puede lograr la semejana térmica inherente bajo un régimen dinámico puro.
En todos los casos analizados de semejanza térmica inherente, se considera que los sistemas
reaccionantes, para los propósitos de semejanza, están limitados por las superficies internas de los
recipientes contenedoras. El espesor de la pared del recipiente no está sujeta a las requerimientos de
semejanza geométrica y debe ofrecer, en unión con cualquire aislamiento externo, la misma resistencia
térmica por unidad de área, tanto en el modelo como en el prototipo. En el caso de un recipiente
metálico sin aislamiento, la principal resistencia térmica radica en la película de aire del exterior del
recipiente y por ello el efecto del espesor de la pared puede en general despreciarse.
En sistemas para los cuales la semejanza inherente no es posible, las condiciones térmicas en las
fronteras deben ser controladas artificialmente, siendo el mejor método de control para las pérdidas de
calor superficial desde recipientes calientes, el empleo de resistencias eléctricas mediantes alambres
enrrollados. Estos alambres deben colocarse preferentemente dentro del material de aislamiento,
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 32/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
aproximadamente en la mitad entre la pared del recipiente y la superficie del aislante y las vueltas
sucesivas de cable que se requieren para alcanzar la longitud necesaria, se deben acomodar en el espacio
comprendido entre la mitad del aislante y la superficie del recipiente.
La potencia que se debe suministrar al enrrollado se calcula apartir de un estimado generoso de la
pérdida máxima de calor desde el enrrollado, a través de la capa exterior de aislante, asumiendo que el
enrrollado está a la misma temperatura que el recipiente. Unido a este dato y conociendo la resistividad
del material del alambre de enrrollado, se calcula entonces la sección transversal del alambre de resistencia.
La regulación del calor suministrado a la resistencia se hace por réostatos en serie u otros
procedimientos de control similares. Para asegurar el mantenimiento de condiciones adiabáticas es
suficiente tener un termopar dentro del recipiente caliente y otro dentro del aislante, entre la pared del
recipiente y el enrrollado de resistencias,ajustándose la corriente que circula de forma tal de mantener las
dos temperaturas iguales.
Cuando las pérdidas de calor deben ser controlados para un valor bajo definido, es mejor tener los
termopares sensitivos en el exterior del recipiente, uno adyacente a la pared y otro muy cercano al
enrrollado. Conociendo el espesor de aislante entre ambos termopares y la resistividad del material
aislante, se puede calcular exactamente el flujo de calor mediante la diferencia de temperatura entre
ambos .
Cuando la temperatura interna varía a lo largo de la longitud del recipiente, el enrrollado de resistencia
se hace comúnmente en secciones, cada una de las cuales se regula por un reóstato separado y se
controlan por temopares separados también .
Las chaquetas al vacío, utilizadas en ocasiones para el aislamiento térmico en el laboratorio, como
es el caso de los frascos de Dewar ordinarios, son problemáticas y raramente efectivas en la escala de
las plantas pilotos ya que un buen aislamiento no se obtiene a menos que la presión absoluta en la
chaqueta sea extremadamente baja, lo cual es difícil de mantener con equipamiento ordinario de ingeniería
debido principalmente a los salideros por juntas, la porosidad del metal y soldaduras y la vaporización de
trazas de humedad y aceite. Además una chaqueta al vacío no disminuye grandemente las pérdidas o
ganancias de calor por radiación por lo cual se necesita utilizar superficies metálicas altamente
reflectivas con este propósito.
Un ejemplo del uso de un sistema de regulación de la pérdida de xf calor a través de las paredes de un
recipiente que posibilita el cálculo exacto y su control, se tiene en los reactores calorímetricos del
típo del RC-l de la Mettler (16), los cuales constan de un recipiente de reacción de 2L/s (escala banco),
con una chaqueta a través de la cual se circulan 2L/s de aceite de silicona (Figura 2.7 ).
El sistema de circulación de aceite se compone de dos partes. En la primera el aceite se mantiene
aproximadamente 3 por encima de la temperatura deseada del reactor, Tr y en la segunda parte, el aceite es
enfriado a una temperatura por lo menos 5 por debajo de Tr. Los dos circuitos de aceite se conectan
por una válvula electrónica, la que permite una mezcla del aceite caliente " con el "frio", de manera tal
que la temperatura del que pasa a la camisa del reactor sea la necesaria para mantener la temperatura del
reactor, Tr, constante.
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 33/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
evaluación continua del flujo de calor producido por la reacción, incluso empleando modelos más
sofisticados del flujo de calor a través de las paredes del reactor .
Un calentador eléctrico calibrado instalado en el reactor se utiliza para determinar el coeficiente de
proporcionalidad (UA), o sea el producto del área de transferencia por el coeficiente global de
transferencia y los modelos matemáticos empleados permiten medir los cambios de las
características de la transferencia de calor que puede resultar de las modificaciones de viscosidad,
volumen de mezcla en reactor y otras variables de operación (14).
Este tipo de reactor puede ser operado también en forma isotérmica o isoperibólica. En el modo
isoperisbólico se controla la temperatura de la camisa de enfriamiento y corresponde a la forma de trabajar
de los reactores discontinuos de la industria..En el caso de su uso en la biotecnología se utiliza
preferentemente el modo de operación isotérmico que no daña los microorganismos (16) (Figura 2.8).
Figura 2.8 Modos de operación del Reactor Calorimétrico (isotérmico, isoperibólico y adiabático) (De
Catálogo Metler).
Los efectos de la superficie adicional en el recipiente de medición , son usualmente investigados en
el laboratorio. Cuando se descubra un efecto catalítico superficial apreciable, se debe pensar en utilizar
alguna forma de recipiente de reacción empacada que permite una mayor superficie interior que la que
normalmente se utilizaría en un recipiente normal, de forma tal que se puede escalar de acuerdo con los
principios señalados anteriormente en este capítulo.
Las dificultades se presentan cuando se tiene recipientes simples, a los cuales es geométricamente
imposible proveer una relación superficie/volumen tan baja en el laboratorio como en la escala grande, y
esto puede hacer necesario cubrir la superficie interior del recipiente de laboratorio con alguna sustancia
inactiva, para suprimir los efectos de la catalísis superficial. Por ejemplo la reacción entre el etileno y el
bromo se cataliza por la superficie de cristal , pero cesa prácticamente cuando el cristal se cubre con cera
parafina.
El conocido efecto de las dimensiones del recipiente en el tamaño de las partículas producidas por las
reacciones de precipitación es posiblemente semejante a los efectos de catálisis superficial. Para igualdad
de otras condiciones, los recipientes de reacción más grandes tienden a dar precipitados más fácilmente
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 34/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
filtrables, por lo que constituye uno de los pocos efectos de frontera que son favorables en el proceso de
escalado
Capítulo 3
ALGUNAS APLICACIONES DEL ESCALADO EN LA INDUSTRIA
QUÍMICA.
Se han seleccionado para las aplicaciones, dos tipos de equipos de amplio uso, no solamente en la
Industria Química sino también en las demás industrias, incluyendo la Biotecnológica. Ese es el caso, por
ejemplo, de los tanques con agitación mecánica, los cuales sirven de base a los fermentadores más
empleados en la Biotecnología, los fermentadores tipo tanque agitado.
Los reactores, por otra parte, constituyen los equipos fundamentales de la Industria Química, pero los
procedimientos desarrollados para su escalado resultan comunes en gran parte, con los procedimientos de
escalado de los reactores enzimáticos, de gran desarrollo en la Industria Biotecnológica actual.
No obstante limitarse el estudio a dos tipos de equipos, la complejidad y amplitud del proceso de
escalado impiden que incluso éstos puedan ser abordados en su totalidad, por lo cual se ha hecho énfasis en
los aspectos fundamentales y en los procedimientos que permitan su aplicación en otras condiciones y a otros
equipos.
3.1 ESCALADO DE TANQUES CON AGITACION MECÁNI-CA
3.1.1 Introducción.
La agitación de fluidos se emplea ampliamente en las industrias química y bioquímica, existiendo gran
diversidad de métodos de agitación y por ello la selección de los mismos y de los aparatos para
ejecutarlos, dependen del objetivo que se quiere lograr y del estado de agregación de los materiales a agitar.
De esos métodos, los dos más empleados para la agitación de fluidos son: el mecánico, mediante
agitadores de diferentes estructuras y el neumático, con aire comprimido o gas inerte, aunque se
emplean también otros métodos como la agitación en tuberías y la agitación mediante toberas y bombas (13,
17).
En este capítulo se estudiará el método de agitación mecánica, mediante agitadores de diversos tipos
(propelas, paletas, anclas, etc.) instalados en tanques, los que se utilizan en la industria principalmente para
(17,24):
1- Mezclado de polvos sólidos o pastas
2- Suspensiones de sólidos en líquidos
3- Dispersión o emulsificación de líquidos
inmiscibles
4- Solución de sólidos, líquidos o gases
5- Procesos de reacciones químicas
Además cualquiera de las operaciones a considerar puede ser acompañada de calentamiento o
enfriamiento en el tanque mezclador, por lo cual se harán consideraciones especiales para los procesos de
agitación y mezclado en los cuales la transferencia de calor juega un papel importante.
De las operaciones mencionadas, el mezclado de sólidos o pastas es más bien una operación mecánica,
por lo cual en este capítulo se tratarán solamente las otras cuatro operaciones, las que caen totalmente
dentro del campo de la hidrodinámica (13).
Con frecuencia en un tanque agitado pueden cumplirse simultáneamente varios de los procesos
señalados. Por ejemplo, en la hidrogenación catalítica de un líquido, el gas hidrógeno es dispersado a
través del líquido, en el cual se mantienen en suspensión las partículas sólidas del catalizador, siendo
eliminado al mismo tiempo el calor producido por la reacción, por medio de un serpentín o camisa de
refrigeración (17). Esto demuestra que resulta imprescindible determinar en cada caso el régimen que
predomina en el equipo y el escalado se debe realizar considerando ese régimen predominante.
3.1.2 Criterios de semejanza y ecuaciones de escalado.
En el caso de los tanques con agitación mecánica, se aplica la ecuación generalizada de la
hidrodinámica, para el movimiento estacionario forzoso del líquido y mediante el análisis
dimensional, se obtiene (13):
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 35/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
donde S1 y S² son los factores de forma que caracterizan el tanque en cuestión, los que se cancelan cuando se comparan dos
tanques geométricamente semejantes.
Además, en los casos en que se agitan juntos dos líquidos inmiscibles, un líquido se dispersa como
gotas en el seno del otro y la tensión superficial en la intefase entre los dos líquidos juega un papel
relevante en el consumo de potencia, y en ese caso el número de Weber (We) debe incluirse en el criterio.
El número de Froude (Fr), es una medida de la relación entre los esfuerzos de inercia y los de gravedad e
interviene en la dinámica de los fluidos siempre que exista un movimiento de ondas importante sobre
la superficie de los mismos y por eso es especialmente importante en el diseño del casco de los buques.
En un tanque agitado, operando en flujo laminar o en el turbulento pero con tabiques deflectores
suficientes o con una posición excéntrica del eje del agitador, no se forman vórtices en la superficie del
fluído y se puede despreciar entonces la influencia de la gravedad, por lo cual se elimina el número de
Froude del criterio de semejanza (25).
Teniendo en cuenta la importancia que el consumo de potencia tiene en los tanques con agitación mecánica, se sustituye la
diferencia de la presión por la potencia, en el número de Euler (Eu) y se transforma el mismo en el número de Potencia (Np),
quedando la expresión del criterio de semejanza como (13):
Np = Ý (Re) (3-2)
Para realizar el escalado mediante la ecuación criterial (3-2), sólo en muy pocas ocasiones se considera el régimen dinámico
puro y por ello no es usual escalar empleando el criterio de mantener constante el número de Reynolds, ya que esa consideración
conduce generalmente a condiciones no económicas (22).
En la práctica existen ocasiones donde, además de las relaciones entre la potencia consumida por el agitador y las
características del fluido, son importantes aspectos relacionados con la rapidez y calidad del mezclado y en ese caso aparecen
otras variables no consideradas en las ecuaciones criteriales (3-1) y (3-2) y se necesitan aplicar por lo tanto, otros criterios de
escalado (Figura 3.1 ).
Figura 3.1 Número de Potencia en función del Reynolds para varios tipos de
impelentes (Tomado de Chisti y Moo-Young, 1991)
Se conoce que la capacidad de bombeo de un agitador dentro de un tanque es proporcional a ND y con
esa base se define el número de Flujo (Nq), número adimensional que depende del número de hojas del
agitador, de la relación entre el ancho de las paletas y su diámetro y de la relación entre el diámetro del
impelente y el diámetro del tanque, o sea de las diferentes variables geométricas que caracterizan un
agitador (4,22).
Se tienen datos de valores de Nq entre 0.4 y 0.5 para propelas con paso igual al diámetro y valores entre
0.7 y 29 para turbinas de flujo axial, de acuerdo con las dimensiones geométricas de los impelentes. Para
el caso particular de ls turbinas axiales con ancho de hojas igual a 0.14 el diámetro del impelente, se tiene
la información completa de la variación de Nq en función del número de Reynolds, para relaciones D/T
entre 0.25 y 0.5 (3).
Estos dos tipos de impelentes (propelas y turbinas axiales), son muy utilizados en la industria química
para sistemas muy sensibles al flujo, y para ellos el número Nq tiene una gran importancia, por lo que la
existencia de esos datos es de gran utilidad para el escalado de ese tipo de mezcladores. No obstante,
existen ocasiones en que este número resulta de importancia también para otros tipos de impelentes y en
esos casos, la carencia de información disponible hace imprescindible la realización de experimentos
para obtener los datos necesarios.
La expresión del número de flujo queda como:
(3.3)
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 36/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
O sea que para un impelente dado, el flujo movido por el agitador es directamente proporcional a la
velocidad de rotación del mismo. Además el coeficiente de proporcionalidad depende del tipo de impelente y
de su relación D/T y Dw/D. Despejando entonces se obtiene:
(3.4)
También el nùmero de Potencia se relaciona con la velocidad y el diámetro del impelente, cuando en
régimen turbulento se hace independiente del número de Reynolds, quedando (22, 23):
(3.5)
De donde, despejando la potencia, se obtiene:
(3.6)
Esta expresión permite analizar el efecto de la variación del diámetro del impelente y la velocidad de
rotación, para un consumo de potencia constante, lo que resulta muy útil para el escalado, como se verá
posteriormente. De esta expresión se llega también a la relación entre el flujo que mueve el agitador y la
carga, a potencia constante, o sea (22):
(3.7)
Otros elementos importantes en el funcionamiento del un agitador, son el tiempo de mezclado y el de
circulación. Hay ocasiones en que los mismos tienen una importancia considerable y por ello se ha
estudiado por diversos autores lo que ocurre con esos tiempos durante el escalado.
Se ha demostrado que la capacidad de bombeo por unidad de volumen (Q/V) es una buena indicación del
tiempo de circulación de una partícula en un tanque pequeño (hasta 200 litros aproximadamente) y que es
mayor que Q/V en un tanque grande (hasta unos 4 m ). A su vez el tiempo de mezclado es en general
proporcional al tiempo de circulación, aunque esta relación no está totalmente clara, ya que hay ocasiones en
que el fluido recorre trayectorias en un tanque sin que se produzca apenas mezcla con el resto del fluido
en el recipiente (22).
No obstante, normalmente se acepta la relación entre el tiempo de circulación, el tiempo de mezclado y la
capacidad de bombeo por unidad de volumen (Q/V) y por ello se toma como indicador de la igualdad de
tiempos de circulación y de mezclado, la igualdad de la relación (Q/V) (23).
Además de lo ya analizado se debe considerar también el gradiente de velocidad que sufre el fluido a lo
largo del eje, el cual varía en realación al tamaño relativo del impelente con respecto al tanque. De un
perfil de velocidad en un tanque agitado mecánicamente se puede obtener (Figura 3-2), el valor
del gradiente de velocidad, cuya pendiente se denomina razón de cizalladura, medida en s y que no es
más que la medición de la variación de la velocidad con la altura.
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 37/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
Se ha podido comprobar que la razón de velocidad del agitador (N), mientras que la razón de cizalladura
máxima en la zona del impelente depende de la velocidad periférica del mismo o lo que es igual, del
producto ND. La carga (H), se relaciona también con la razón de cizalladura, siendo proporcional a la raíz
cuadrada de dicha razón.
Estas relaciones, unidas a la expresada en la ecuación (6.7), muestran que un impelente grande,
operando a baja velocidad, produce un flujo alto, una baja carga y una baja razón de cizalladura. En
el otro extremo, un impelente pequeño, moviéndose a alta velocidad, desarrolla una alta razón de cizalladura
y una baja capacidad de bombeo (Figura 3.3).
Figura 3.3 Variación de el esfuerzo cortante y la carga en el escalado de un tanque agitado con igual
P/V (De Oldshue, 1969).
o lo que es igual:
(3-10a)
y de ahí se obtiene:
(3-13)
Esta es una de las mejores opciones para el escalado de un tanque con agitación mecánica. Se ha
demostrado que es el mejor procedimiento para escalar las operaciones de mezclado líquido-
líquido, cuando el objetivo es lograr igualdad de área interfacial por unidad de volumen de una mezcla
líquida y también es aplicable a la dispersión de sólidos en líquidos (28).
En otros muchos casos se acostumbra también a seleccionar este criterio de igual potencia por unidad
de volumen, lo que lleva en muchas ocasiones a escalados conservadores, aunque siempre el tiempo de
mezclado que se obtiene en el prototipo resulta mayor que en el modelo, lo que se ha tenido en cuenta en
los casos en que el tiempo de ciclo resulta importante (22). Esto puede ocurrir, por ejemplo, cuando el
resultado del proceso de agitación es una función del número de veces que el material se circula a través de
la zona de alta cizalladura.
(3-15)
E-Igual coeficiente de transferencia de masa en el líquido.
Este es el procedimiento recomendado cuando el objetivo principal del tanque agitado es disolver
un gas en un líquido, como es el caso de los fermentadores industriales (1, 7, 21). Cuando se aplica en
esos casos el criterio de igual P/V, se está haciendo un escalado conservador, empleándose más potencia
de la necesaria y sometiendo al medio a un esfuerzo cortante mayor (Tabla 3-1).
Si se realiza el escalado con el criterio de igual coeficiente de transferencia (klal), se logran mejores
valores en muchos indicadores, para este tipo de tanque agitados. Las ecuaciones a emplear son:
3-16
y de la misma se obtiene:
3.17
diámetro del impelente y se reduce la velocidad de rotación N de forma tal que se alcance un producto ND
igual al del modelo, con lo que se obtiene además igual esfuerzo cortante en ambas escalas.
Como resultado, a pesar de la reducción de N, el flujo se incrementa por el aumento del número
de flujo Nq y para la relación D/T seleccionada en el ejemplo (0,52) se mantiene también la misma
relación (Q/V),o sea iguales tiempos de circulación y mezclado por lo cual se mejoran
apreciablemente todos los indicadores del escalado.
(3-19)
(3.20)
En este caso el exponente m de término de corrección por viscosidad toma valores entre 0.1 y 1 y se obtiene
de:
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 41/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
(3-21)
En todos los casos se asume convección forzada, por lo cual es necesario asegurar que eso se cumpla y
aunque se han desarrollado expresiones para determinar la velocidad mínima del agitador con la cual se
asegura la convección forzada, esas relaciones empíricas tienden a ser válidas solamente para los
sistemas en los cuales se desarrollaron. Por esa causa en la mayoría de los casos es necesario auxiliarse de
diversos medios, entre los que se incluye la observación visual, para asegurarse de que el sistema se
encuentre en convección forzada.
Para el escalado de los procesos de transferencia de calor en tanques agitados, en la mayoría de las
aplicaciones en las cuales controla el flujo, lo más aconsejable es utilizar el criterio de mantener constante
la potencia por unidad de volumen, ecuación (8-13), asumiendo la semejanza geométrica y de esa
forma debe obtenerse aproximadamente el mismo coeficiente de transferencia de calor para el mismo tipo
de impelente.
Ese método se utiliza a pesar de que se conoce que es realmente una aproximación, debido a que el
efecto de la potencia en el coeficiente de transferencia de calor es realmente pequeño y por ello aún un
moderado error en el escalado a P/V constante, tendrá sólo un mínimo efecto en el coeficiente de
transferencia de calor del lado del agitador o mezclador.
3.1.5 Sugerencias a tener en cuenta en el escalado de tanques agitados.
Como punto de inicio se debe considerar el criterio de escalar con igual P/V y semejanza geométrica y
calcular o estimar la potencia consumida, la velocidad y el diámetro del impelente y las razones de
cizalladura, analizando posteriormente con cuidado el comportamiento de esos parámetros, de manera
de poder juzgar cuan adecuada o inadecuada puede ser esa variante de escalado.
Normalmente con eso se obtiene un escalado conservador y se puede dejar así, exepto en algunos
casos especiales, como son los procesos de dispersión de un gas en el seno de un líquido, donde
generalmente es preferible emplear la igualdad de coeficientes de transferencia de masa o en los
procesos biotecnológicos muy sensibles al esfuerzo cortante, en los cuales se debe asegurar en el escalado
que no se sobrepase el esfuerzo cortante máximo permisible para el caso específico.
Si no se está en presencia de esos casos específicos, pero el análisis de los valores obtenidos con el
escalado a igual P/V muestra la conveniencia de modificar los valores obtenidos en la capacidad de
bombeo, tiempo de mezclado o esfuerzo cortante, puede probarse entonces con una variante que se aparte de
la semejanza geométrica, principalmente en lo relacionado con la relación D/T, teniendo en cuenta que el
flujo se incrementa y la velocidad disminuye cuando se incrementa la relación D/T y que la potencia P
es proporcional al producto QH.
En el caso particular de un tanque agitado que va a funcionar en una planta piloto y servirá de modelo
para un tanque a gran escala, debe tenerse en cuenta las diferencias que hay entre los tanques grandes y
los pequeños cuando se mantiene la semejanza geométrica. El tanque pequeño tendrá siempre mayor
capacidad de bombeo, menor tiempo de mezclado, mayor razón de cizalladura y menor rango de razones
de cizalladura que en el tanque grande.
Un ejemplo de lo que ocurre en tanques semejantes geométricamente cuando se escala
ascendentemente manteniendo constante la relación(P/V), se muestra en la figura 3-2 (21). Teniendo en
cuenta estas variaciones, se recomienda apartarse de la semejanza geométrica en lo relacionado con las
dimensiones del impelente y considerar en la planta piloto un impelente más estrecho, con menor
relación D/T y rotando a mayor velocidad que el prototipo, de manera tal que se compensen las
desviaciones y el comportamiento del tanque piloto se acerque lo más posible al prototipo.
En la tabla 5-2 se muestra un ejemplo del escalado descendente (scale-down) desde un prototipo
industrial de 10 m hasta un tanque piloto de 13.6 litros, en el cual se comparan cuatro variantes de
escalado: igual relación (P/V), incremento en la relación (P/V), disminución de la relación D/T y
disminución de la relación (Dw/D (21).
El análisis de los resultados mostrados en la tabla, están en concordancia con las diferencias señaladas
entre el prototipo y el modelo cuando se escala descendentemente manteniendo constante la relación (P/V).
Cuando se prueba con un incremento de (P/V), se mejoran algo los indicadores, pero se pone de
manifiesto que por esa vía no se pueden alcanzar los resultados requeridos sin grandes consumos de
energía.
El cambio de las relaciones geométricas del impelente ofrece mejores resultados. Primero se prueba
con la disminución de la relación (D/T)y después se reduce también la relación (Dw/D) y con
ello se logra igualar la velocidad periférica del prototipo y disminuir apreciablemente el tiempo de
mezclado, sin incrementar más aún el consumo de potencia, lo que demuestra las posibilidades
de esta forma de proceder (21).
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 42/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
Tabla 3-2 Variantes de escalado descendente (scale-down) de un tanque con agitación mecánica.
Tomado de Oldshue, 1969 (21), traducido y llevado al SI por el autor.
N Símb. Ind. Escala piloto
(13.6 L)
1 P 1.0 0.0014 0.0062 0.0062 0.0062
2 (P/V) 1.0 1.0 1.6 1.6 1.6
3 N 1.0 4.33 5.07 6.4 10.1
4 D 1.0 0.11 1.11 0.097 0.097
5 Q 1.0 0.006 0.007 0.006 0.004
6 (Q/V) 1.0 4.3 5.2 4.3 2.7
7 Re 1.0 0.07 0.08 0.06 0.09
8 (D/T) 0.35 0.35 0.35 0.30 0.30
9 ND 1.0 0.48 0.56 0.62 1.0
10 (Dw/D) 1.0 1-0 1.0 1.0 0.25
Con relación al incremento de las relaciones (D/T) en los prototipos es necesario tener en cuenta
que impelentes grandes que se mueven a bajas velocidades requieren un torque mayor para la potencia
seleccionada y ésto puede hacer que el reductor requerido sea muy voluminoso y se encarezca el conjunto
motriz del agitador, aunque la potencia del motor sea menor (22).
Todos estos factores deben ser sopesados cuidadosamente durante el proceso de escalado y se deben tener
en cuenta, cuando se tengan disponibles, las referencias en la literatura sobre el proceso en estudio, las
experienias de planta y as sugerencias del vendedor, ya que no se puede contar con reglas de
escalado universales, dada la gran variedad de condiciones que pueden existir.
Otro elemento a considerar es que nornmalmente no es necesario mantener una relación
(Z/T)constante en la planta piloto, pudiendose utilizar, por ejemplo, un impelente único en el eje del
agitador, aún cuando en la aplicación comercial se empleen múltiples impelentes en el mismo eje,
aunque existen algunos casos en que el cambio de profundidad puede causar problemas en el escalado, al
variar la presión absoluta en el fondo del recipiente y afectar procesos de despojamiento de gases (22).
En general en los estudios de escalado en tanques agitados, el ingeniero debe de decidir el tipo de
corridas experimentales que debe hacer, si no cuenta con suficiente información, así como la velocidad
aproximada que debera emplear en las pruebas y los datos que necesita obtener de los experimentos. Cada
tipo de proceso es diferente y por ello los métodos y los elementos a emplear en las corridas
experimentales pueden variar mucho. No es posible relacionar una serie simple de experimentos que
puedan cubrir todas las posibilidades.
En muchas ocasiones la necesidad de obtener un conocimiento detallado del proceso, lleva a
convertir el equipo de mezclado de una pequeña instalación piloto en un equipo de mezclado muy
ineficiente y no deberá tenerse temor de que esto ocurra, si de esa forma es posible acopiar el conocimiento
suficiente sobre las características del proceso, que permita seleccionar el método de escalado más
adecuado. De no hacerse ésto pudiera pasarse por alto el efecto de importantes variables durante las
corridas de laboratorio y planta piloto, lo que puede provocar posteriormente que los resultados obtenidos
con los tanques a gran escala difieran sensiblemente de los de pequeña escala y resulte, por lo tanto,
fallido el escalado.
3.2 Escalado de los reactores químicos
Se comenzará por el análisis de los procesos de una sola fase, mucho más simples y después se
analizarán procesos de dos fases (gaseosa y líquida) y finalmente los más complejos, los procesos
catalíticos. En cada caso es fundamental analizar la importancia relativa que los distintos fenómenos
(cinética química, transferencia de masa y transferencia de calor) tienen en cada tipo de procesos y la
utilidad que tienen en cada caso los principales medios y métodos empleados durante el escalado
(laboratorio, planta piloto, mockups y modelos matemáticos) (29).
Se comenzará por el análisis de los procesos de una sola fase, mucho más simples y después se
analizarán procesos de dos fases (gaseosa y líquida) y finalmente los más complejos, los procesos
catalíticos. En cada caso es fundamental analizar la importancia relativa que los distintos fenómenos
(cinética química, transferencia de masa y transferencia de calor) tienen en cada tipo de procesos y la
utilidad que tienen en cada caso los principales medios y métodos empleados durante el escalado
(laboratorio, planta piloto, mockups y modelos matemáticos) (29).
Para ejemplificar la aplicación de esos métodos, se analizarán un grupo de reactores de la industria de
refinación de petróleo, pero de hecho los problemas a resolver son similares en los distintos tipos de
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 43/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
procesos y las metodologías presentadas son por lo tanto aplicables igualmente a otros procesos químicos.
Reactores discontinuos.
El escalado de los reactores discontinuos en la mayoría de los casos se lleva a cabo multiplicando el
volumen de reacción por el factor de escala y no requiere el empleo de plantas piloto ni mockups, aunque
la transferencia de calor puede ser importante en ocasiones. En esos casos hay que adecuar la
capacidad de transferencia de calor del reactor escalado para que sea capaz de asimilar el calor producido
por la reacción.
Cuando las reacciones son extremadamente exotérmicas, como es el caso de la polimerización, una
insuficiencia en el área de intercambio de calor puede causar inestabilidad o incluso explosión, por lo
cual para esos casos los datos termocinéticos deben de ser calculados con precisión en las etapas de
laboratorio y banco, siendo recomendables para ello el uso de reactores calorimétricos automáticos como
el RC-1 de la firma Mettler (14, 15, 33).
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 44/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
correlaciones empíricas disponibles, aunque no se dispone aún de modelos matemáticos útiles para este
proceso, debido a la gran complejidad del mismo.
El tipo de reactor utilizado industrialmente para las operaciones de hidroprocesamiento
(hidrodesulfurización de gasolina, fuel-oil, destilados al vacío y residuos; hidrocraqueo para producir
destilados medios y gasolina; hidrorefinación de aceites lubricantes, etc) es el de cama fija y dos
fases fluídas, denominado "cama de escurrimiento" (trickle bed) (Figura 3.5).
A pesar de la amplia experiencia acumulada con algunos de estos procesos, el desarrollo de nuevos
procesos y variantes y la necesidad de reducir el costo de los reactores (más del 30% del costo total de
una unidad), han hecho que en los últimos años se hayan realizado un considerabale trabajo de
investigación y desarrollo encaminado al conocimiento del flujo de dos fases (gas y líquido), a través de
camas de catalizador y que mucho aún permanezca por ser aprendido.
Entre los aspectos no suficientemente estudiados, está la caída de presión en este tipo de equipo, la que
sólo se podía calcular con un amplio margen de error (+ - 100%). Para los estudios de caída de presión y
patrones de flujo, se han empleado equipos de laboratorio on tubos de 10 a 15 cm de diámetros, seguidos
por la utilización de mockups para estudiar los problemas distributivos de las fases a través de la sección
transversal de la cama del catalizador (Figura 3,6). La distribución de las fases líquida y gaseosa debía
ser tan homogénea como fuera posible, ya que la homogeneidad determina la eficiencia de la cama de
catalizador y el mínimo volumen del reactor.
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 47/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 48/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
Figura 3.7 Reactor de cama móvil con flujo cruzado (De Trambouze, 1990).
El trabajo requerido para el desarrollo de una unidad de proceso basada en esa tecnología incluyó (29,
30):
-Mejora de la resistencia mecánica de los catalizadores sin detrimento de la calidad de los mismos.
-Optimización de las condiciones de operación para mejorar el rendimiento de la regeneración.
-Estudio de la transferencia neumática del catalizador.
-Detallar el diseño de los reactores de cama movil.
-Diseñar válvulas aislantes de catalizador que fuesen herméticas al hidrógeno.
Los primeros dos objetivos se investigaron en unidades piloto de reformación construídas al efecto, las
tres últimas requirieron del uso de mockups y en el caso particular del último de los objetivos, las
investigaciones culminaron con pruebas a gran escala bajo condiciones reales de operación.
En particular nel diseño detallado del reactor conllevó un estudio detallado de las interacciones gas-sólido
y para ello se dieron los pasos siguientes:
-Empleo de una pequeña unidad de laboratorio de unos pocos centímetros de tamaño para mostrar los
efectos tales como el amasado del catalizador contra los tamices en la salida del gas.
-Un mockup rectangular capaz de cargar hasta 350 L de catalizador, para un estudio preliminar de
la relación entre el espesor de la cama compactada y la caída de presión en la fse
gaseosa.
-Un mockup del tamaño y forma del reactor industrial planeado, aunque limitado a sólo un sector del
cilindro para reducir los volúmenes de catalizador y de gas a recircular y con una de las caras hechas de
Plexiglas de forma que se pudiera observar el flujo de sólidos mediantes técnicas de trazado. El volumen
de sólido total en ese mockup era de 2.5 m (Figura 3.8).
En el trabajo con los mockups, se emplearon como fase sólida los mismos gránulos que sirven de
soporte al catalizador, la fase gaseosa fué el aire y las condiciones de operación fueron la temperatura
y presión ambientales. De esa forma, gracias a una serie de mediciones y modificaciones hechas en el
mockup grande, a muy bajo costo, fué posible definir la forma del reactor industrial y los valores
máximos de flujos y caídas de presión.
Finalmente, combinando los resultados de las plantas piloto para las condiciones de operación del
reactor y del regenerador con los resultados de los mockups sobre los problemas de transporte de sólidos e
interacción gas-sólido, se estuvo en
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 49/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
condiciones de diseñar y construir la primera unidad con esta tecnología, a una escala modesta primero
(1/10 de las plantas industriales comunes) y a la escala normal después, convirtiéndose en una tecnología
aceptada a nivel mundial y en franco desarrollo.
topes de culminación de los proyectos y otras consideraciones técnico económicas, se deben correr siempre
riesgos calculados en la construcción de la primera planta industrial. Esos riesgos deben ser balanceados en
términos de su posible repercusión financiera y comparado con las sumas adicionales que habría que gastar
para incrementar el conocimiento del proceso en desarrollo,.
En determinado momento esto puede llevar a la decisión de construir una planta semi-industrial, cuando
la complejidad y los riesgos previsibles lo hagan asimilable, debido al alto costo y el incremento en el plazo
total de tiempo para el desarrollo del proceso que significa una planta de este tipo (Trambouze, 1990).
CAPÍTULO 4
Escalado de los Procesos Biotecnológicos
4.1 Introducción.
El único hecho incontrovertido acerca del Escalado de los Procesos Biotecnológicos en general y de los
Bioreactores en particular , es que es una de las tareas más complejas en el campo de la Ingeniería
Bioquímica, que constituye un empeño retador para los especialistas de la rama. Teniendo en cuenta la
enorme complejidad de esta tarea, resulta conveniente dividirla en dos problemas básicos (Figura 4.1), (
Reuss, 1993):
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 51/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
En este epígrafe se considerarán las principales etapas en que convencinalmente se ha dividido el proceso
de Investigación y Desarrollo (Capítulo 1): laboratorio, banco, y piloto.
Figura 4.2 Agitador rotatorio orbital con control de temperatura para la etapa de laboratorio
(Catálogo Bioblokc).
Figura 4.5 Mini reactor de laboratorio para células inmovilizadas (Catálogo New Brunswick).
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 52/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
Figura 4.6 Variantes de bioreactores de laboratorio para células creciendo sobre micrportadores.
En todos los casos las tareas principales simpre son las mismas (Capítulo 1): Seleccionar las cepas
adecuadas y optimizar el medio de cultivo, así como definir las condiciones óptimas de pH, temperatura,
iluminación, etc.
Figura 4.8 Fermentador de banco con fondo y tope de inoxidable, agitado por el fondo (Catálogo Bio
Lafitte).
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 54/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
Figura 4.11. Fermentador para cultivos celulares con adición de varios tipos de
gases (De Beck et al, 1987).
En todos los casos las tareas principales a desarrollar son las mismas (Capítulo 1): Seleccionar el
procedimiento d edesarrollo de inóculos, esterilización del medio, aireación y agitación; Determinación de
los modelos cinéticos del proceso y sus coeficientes específicos ; Realizar ajustes de variables como la razón
de transferencia de oxígeno, la evolución de dióxido de carabono, producción de biomasa, biosíntesis de
metabolitos y efectos de pH; Estudio del régimen de allimentación continua o incrementada; Selección de
alternativas de control e instrumentación y Realización de la evaluación económica preliminar del proceso.
similares a las industriales, con las cuales se pueden hacer las pruebas de mercado y las pruebas clínicas, en
el caso de los medicamentos.
Se consideran en la escala piloto, fermentadores a partir de 20 L, generalmente construídos totalmente de
acero inoxidable (Figura 4.12). En el caso de la producción de anticuerpos monoclonales, por otra parte, la
pequeña escala de producción hace que se puedan considerar instalaciones piloto,
Figura 4.13. Mini Planta Piloto para la producción de anticuerpos monoclonales (Catálogo New
Brunswick).
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 56/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
uniformidad de propiedades a través del sistema, algo que puede resultar imposible, incluso en un bioreactor
pequeño (Reuss y Bajpai, 1993).
Tabla 4.1 Criterios más empleados para el escalado de Bioreactores tipo tanque agitado (Tomado de
Reuss, 1993).
Coeficiente volumétrico kLaL
de transferencia de O2
Consumo de Potencia por P/VL
unidad de volumen
Velocidad en la punta del NDi
Impelente
Velocidad de agitación N
Tiempo de mezclado
terminal
Los bioreactores se caracterizan por las interacciones complejas entre los fenómenos de transporte y la
cinética microbiana y esto determina su rendimiento. Sin embargo, mientras la cinética microbiana no es
dependiente de la escala, los procesos de transporte si lo son. Como resultado los problemas de escalado
pueden asociarse a las actividades críticas en el dominio de los procesos de transporte y la identificación de
esas actividades críticas se puede llevar a cabo comparando las diferentes constantes de tiempo, como se
muestra en la Tabla 4.2. Un análisis de ese tipo lleva a la conclusión de que en diversos bioprocesos la
distribución de masa y/o energía es frecuentemente la actividad crítica que afecta el ambiente extracelular en
un bioreactor.
No obstante, el hecho de que la determinación de las constantes de tiempo requiere el empleo de
correlaciones empíricas, como las de determinación del coeficiente kLaL, el éxito de estos análisis depende
mucho de la calidad de las correlaciones utilizadas, lo cual en muchos casos es cuestionable (Reuss, 1993).
Por esta causa, en la práctica, a pesar de las limitaciones antes señaladas, el empleo de una de las técnicas
mostradas en la Tabla 6.1sigue siendo hasta ahora la variante más empleada en los procesos de escalado de
bioreactores.
Como comparación, a continuación se presentan las constantes de tiempo de los procesos cinéticos que
ocurren en un bioreactor (Tabla 4.3)
En ese caso, el proceso de escalado conlleva los siguientes requerimientos:
1. Selección de un índice de rendimiento
2. Elección de una ecuación apropiada para estimar las condiciones de operación y garantizar mantener la
propiedad seleccionada en escalas diferentes
3. Estimar las consecuencias de este proceso en otras variables claves, con la ayuda de ecuaciones de
translación adecuadas
Obviamente esto no es un enfoque directo sino más bien un proceso iterativo, para el cual es prerrequisito
un investigador con un buen sentido de la naturaleza física de los procesos involucrados y experiencia de
laboratoria. De particular importancia es realizar a intervalos, durante el proceso de escalado ascendente,
algunos experimentos de escalado descendente que permitan chequear la influencia de los diversos efectos
interdependientes (Reuss, 1993). También es importante tener claro, como se ha señalado anteriormente que
las correlaciones requeridas casi nunca están disponibles o no son del todo confiables.
Tabla 4.2 Constantes de tiempo para diferentes procesos relacionados con los fenómenos de transporte
que ocurren en un bioreactor industrial (fermentación ácido glucónico) Tomado de Reuss y Bajpai,
1993.
Procesos Ecuación Constante de
tiempo
Transf. masa
gas-líquido 5.5 - 11.2
Tiempo de
circulación 12.3
20.6
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 57/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
Tiempo
residencia del
gas
Tabla 64.3 Constantes de tiempo de los procesos cinéticos en un bioreactor. (Tomado de Reuss y
Bajpai, 1993).
0.7 - 16
Consumo
de oxígeno
Utilización 5.5E+4
de sustrato
Creciminto 1.2E+4
de biomasa
Producción 350
de calor
también utilizado como una buena aproximación para el escalado en los fermentadores del tipo tanque
agitado, con resultados superiores a los que se alcanzan con los métodos de igual vvm y de igual velocidad
superficial.
En este criterio de igualdad del coeficiente de transferencia de masa se aplica la siguiente ecuación:
(4.1)
En esta expresión (Q/V) significa flujo por unidad de volumen y tiene el mismo sentido práctico que el
término v.v.m., pudiéndose expresar en las misma forma, o sea en volúmenes de aire por volumen útil de
líquido en el fermentador, por minuto, aunque según las recomendaciones del SI debe expresarse
preferentemente en m3 de aire por m 3 de líquido por segundo.
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 59/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
(4.2)
en la cual N representa la velocidad del impelente y L una dimensión característica que generalmente se
toma como el diámetro del tanque. El supraíndice ' representa las condiciones del equipo a mayor escala
(prototipo), mientras que las dimensiones sin supraíndice son las del equipo de menor escala (modelo).
También se dispone de una expresión matemática de este criterio de escalado para los casos en que el
proceso de escalado se realice sin que exista semejanza geométrica plena, siempre y cuando se conozcan las
relaciones entre las dimensiones principales de ambos equipos ( Rodríguez et al., 1995).
Sin embargo, experiencias recientes demuestran que en la mayoría de las fermentaciones la potencia
necesaria decrece con el incremento del volumen del fermentador, aproximadamente de la forma siguiente
(Chisti y Moo-Yuoung, 1991):
(4.3)
en la cual PG representa la potencia que consume el agitador, cuando se pasa un flujo de aire a través del
mismo y VL el volumen efectivo de caldo en el fermentador.
Eso significa que mantener (PG/VL) constante en el escalado no debe resultar un enfoque
energéticamente eficiente. Además, en esa variante de escalado, la velocidad periférica del impelente se
incrementa bastante y con ella el esfuerzo cortante al que se somete al caldo, lo que puede resultar
desfavorable para muchas fermentaciones
(4.4)
Se conoce por ejemplo que algunas fermentaciones miceliares presentan esporulación temprana,
rotura de micelios y bajos rendimientos si el esfuerzo cortante es excesivo, pero se consideran
permisibles velocidades periféricas de 0.25 a 0.5 ms-1.
(4.5)
en la cual UG es la velocidad superficial del gas, a través del área de la sección tansversal del fermentador.
El otro elemento a tener en cuenta en este método de escalado es cuál expresión se debe de utilizar para
calcular el valor del coeficiente de transferencia, cuando esto es necesario, por ejemplo, cuando se necesita
trabajar un fermentador a un valor preestablecido del coeficiente de transferncia. Sin embargo esto no es
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 60/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
frecuente y en la práctica lo más común es conocer a qué niveles de aireación y agaitación debe operarse un
fermentador a una escala mayor (o menor), conocidos los valores de esos parámetros en la escala de
referencia. En esos casos, resulta suficiente con aplicar la ecuación de escalado 4.5.
El cálculo del valor del coeficiente de trasnferencia puede ser necesario en el comienzo de la etapa de
banco, por ejemplo, cuando se quiere tener un punto de referencia para el inicio del Diseño Experimental que
se requiere. En ese caso resultan de utilidad las correlaciones mostradas por Aiba (1970) , en las que se
compara, por ejemplo, el rendimiento de levadura panadera para difernts números de oxidación de sulfito
(Figura 4.16)
y se obtiene que a partir de un valor de sulfito de 150 mm O2 /L/h el rendimiento no se afecta
apreciablemente, con independencia del tipo de fermentador y sistema de aireación.
Figura 4.16 Efecto del número de oxidación del sulfito en el rendimiento de la levadura panadera (De Aita et
al., 1970).
Se presenta también el rendimiento de la producción de estreptomicina (Figura 4.17) y el de penicilina
(4.18) versus el valor del número de oxidación del sulfito y el comportamiento es similar, aunque para
valores mucho más elevados del número de oxidación de sulfito, expresados en esos casos el número de
oxidación del sulfito como Kvp, o sea el producto del coeficiente volumétrico de transferencia de masa por la
presión media del aire de entrada, para poder corregir el efecto que tiene la presión hidrodtática en los
grandes fermentadores utilizados normalmente para la producción de antibióticos.
Figura 4.17 Productividad de estreptomicina versus Kvp (De Karow et al, 1953).
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 61/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
Figura 4.18 Productividad de penicilian versus Kvp (De Karow et al., 1953)
Sin embargo el hongo Ustilago zeae,productor del ácido ustilágico, si bien se comporta cualitativamente
igual, presenta la constancia del rendimiebnto a partir de valores del número de oxidación de sulfito más
bajos, muy semejantes a los de la levadura panadera.
Figura 4.19 Efecto del número de sulfito en la producción de ácido ustilágico (De Aib a et al, 1970).
También se han encontrado casos cuyo comportamiento no es exactamente igual, como es el caso de la
producción bacteriana de vitamina B12 en la cual se comprobó un decrecimiento del rendimiento después de
alcanzado un óptimo, lo que puede deberse a la ocurrencia de daños a los micrsoorganismos en los caldos de
fermentación altamente turbulentos. El valor del número de oxidación de sulfito equivalente al óptimo, fué
sin embargo similar (250 mm O2/L/h ) al obtenido para las levaduras (150 mm O2/L/h ) e inferior al de la
producción de antibióticos (500- 600 mm O2/L/h ).
Teniendo en cuenta esta información, se pueden comenzar las corridas experimentales de levaduras,
hongos y bacterias con el valor del número de oxidación de sulfito recomendado, pero para esto se requiere
contar con las correlaciones adecuadas, lo cual ofrece un grado de dificultad adicional. No obstante, para
cumplir con el objetivo de hallar un valor inicial para la experimentación, puede aplicarse la correlación
original propuesta por Cooper (1944) o algunas de sus modificaciones posteriors (Reuss, 1993), teniendo en
cuenta sus imprecisiones.
También puede hacerse uso de correlaciones más recientes, como las que se prssentan en el trabajo de
Reuuss (1993).
contra el Reynolds, para un impelente del tipo turbina normalizada de hojas planas. Se obtiene un gráfico de
la siguiente forma:
Tabla 4.3 Valores del tiempo de mezclado, t para diferentes velocidades del impelente en recipientes
de 5 y 40 000 L en la región turbulenta (De Aiba et al., 1970).
. Tiempo de mezclado, s
N (rpm) 3L 40 000 L
30 40 66
60 35 41
120 16 26
300 9 14
750 5 8
No obstante se considera más práctica aplicar el criterio antes mencionado de mantener constante la relación
Con esta base, la ecuación para el criterio de igualdad del tiempo de mezclado, cuando los equipos a
escalar son semejantes geométricamente se reduce a la expresión (González, 1995)
:
N' = N (6.6)
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 63/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
Del análisis de los resultados se corrobora el planteamiento hecho al inicio del Capítulo,que es fácil de
apreciar que estos criterios son mutuamente exclusivos y, por consiguiente, no permiten una replicación
exacta de la semejanza ambiental en dos escalas diferentes cualesquiera, por lo cual debe hacerse un análisis
cuidadoso acerca de cuál debe ser el criterio a aplicar. En la práctica, sobre todo en las fermentaciones de
levaduras y bacterias, se obtienen muy buenos resultados empleando el criterio de mantener constante el
coeficiente volumétrico de transferencia de oxígeno ( kLaL), por lo cual este resulta el método recomendado
para este tipo de fermentaciones. El criterio de igual potencia por unidad de volumen también ha demostrado
su utilidad, sobre todo en las fermentaciones para la producción de antibióticos, por lo cual resulta un
criterio a ser considerado.
El criterio de mantener constante la razón de cizalladura debe emplearse solamente en los casos en que el
microorganismo resulte muy sensible a este parámetro y siempre y cuando el rango de cambio de escala
propuesto pueda afectarlo apreciablemente. En esos casos debe tratarse, siempre que sea posible,de apartarse
de la semejanza geométrica y utilizar en la instalación industrial un impelente más grande que en la piloto
(Oldshue, 1983 ), con lo cual se puede obtener resultados muy favorables.
El criterio de igual potencia por unidad de volumen tiene como dificultad el incremento de la razón de
cizalladura y del tiempo de mezclado, cuando la relación de escalado es alta. lo que se puede apreciar en la
siguiente tabla.
Tabla 4.4 Variación del tiempo de mezclado con el escalado ascendente, manteniendo P/V constante
(De Aiba et al., 1970).
Factor de Factor de Relación
escala V2/V1 escala Dt2/Dt1 (t2/t1)
8 000 20 6.3
1 000 10 4.1
125 5 2.7
64 4 2.4
27 3 2.0
8 2 1.5
De la misma se aprecia que si una fermentación puede escalarse adecuadamente desde 5 hasta 40 000
L es que la misma no es muy sensitivo al incremento del esfuerzo cortante y del tiempo de mezclado
que este tipo de escalado conlleva.
En resumen puede considerarse como el método preferente el de igual coeficiente de transferencia
de masa, exepto para los casos en que existan limitaciones con otros aspectos como el esfuerzo cortante
o el tiempo de mezclado mm O2/L/h .
CAPITULO 5
UTILIZACIÓN DE LA MODELACION MATEMÁTICA Y EL DISEÑO DE EXPERIMENTOS EN EL
PROCESO DE ESCALADO.
5.1 Introducción.
El proceso completo de Escalado, desde el laboratorio hasta la industria, resulta generalmente largo y
costoso, por lo cual resulta conveniente optimizar dicho proceso para llevarlo a su mínima duración y costo.
Para realizar esa optimización resulta muy valioso aplicar las técnicas del Diseño Estadístico de
Experimentos y la Modelación Matemática.
El aplicar el Diseño de Experimentos a escala industrial resulta difícil por las afectaciones que puede
hacerle a la producción. No obstante, el Diseño Estadístico de Experimentos es una de las principales
herramientas de que dispone el investigador para aumentar la eficacia de la investigación, y hoy en día se
aplica ampliamente a escala de laboratorio, banco y piloto. No es necesario ser un estadístico o un
matemático; la experiencia ha demostrado que los químicos e ingenieros pueden fácilmente aprender los
principios fundamentales de este tipo de diseños (Guerra y Sevilla, 1987).
Una simple observación experimental en un laboratorio, en una instalación a escala piloto o a nivel
industrial puede costar cientos o miles de dólares, luego siendo el objetivo de la investigación obtener
información, puede definirse la eficiencia de la investigación como la cantidad de información útil obtenida
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 64/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
por unidad de costo. Por consiguiente, es extremadamente importante para una investigación utilizar
métodos experimentales que le brinden la máxima cantidad de información con el menor costo y esfuerzo. El
uso del Diseño Estadístico de Experimentos facilita un incremento apreciable en la productividad de los
investigadores, así como en la confiabilidad de los resultados obtenidos, siendo estos métodos, por su
naturaleza universal, adaptables a la mayoría de los campos actuales de investigación (González, E., 1980).
Con el Diseño Estadístico de Experimentos se pueden reducir al mínimo imprescindible las experiencias
que se deben realizar a Escala de Laboratorio y planificar adecuadamente las corridas en las escalas de banco
y piloto, de forma tal de obtener la mayor cantidad posible de información en el menor intervalo de tiempo.
Con la Modelación Matemática se pueden reducir las corridas necesarias en las instalaciones de banco y
piloto ya que se pueden realizar sólo las corridas necesarias para obtener la información que se requiere para
poner a punto los modelos matemáticos del proceso y el resto de las investigaciones se pueden realizar
mediante simulaciones en computadora, con la exepción de un mínimo de corridas experimentales que se
realicen al final para corroborar los resultados de los modelos.
Aquí hay que señalar también que resulta evidente que el tipo de diseño a utilizar en cada caso, depende
del objetivo del experimento y del tipo de modelo que se desea obtener. Sobre la base de estas
consideraciones, se puede establecer una clasificación de las investigaciones experimentales según Box,
(Guerra y Sevilla, 1987):
1. Experimentos de tamizado: Cuando a partir de un gran número de variables hay que identificar cuáles
afectan el rendimiento.
2. Construcción de modelos empíricos : Para obtener una descripción aproximada de la relación entre X e
Y, en función de parámetros B.
3. Construcción de modelos determinísticos: Para determinar la verdadera relación funcional que existe
entre X e Y.
4. Ajuste del modelo determinístico: Para encontrar los mejores estimados de los parámetros
desconocidos en el modelo propuesto.
Los experimentos de tamizado deben hacerse al comienzo de un estudio experimental, cuando hay
numerosas variables que potencialmente pueden incluir en la respuesta. Es necesario discriminar entre ellas
las verdaderamente importante. Esta es la esencia de este tipo de experimentos los que deben ser bien
diseñados estadísticamente para poder determinar también las interacciones entre las variables.
La construcción de modelos empíricos se hace necesario en aquellas situaciones en que no es factible la
obtención de un modelo determinístico. En esas situaciones resulta útil, un modelo aproximado que
representa adecuadamente el comportamiento del proceso bajo estudio en a región de interés. Los modelos
determinísticos, por otra parte, casi siempre son no lineales y la estimación de los parámetros de los mismos
puede resultar difícil.
Por lo tanto, el objetivo de las investigaciones generalmente es establecer un modelo matemático del
proceso y pueden haber dos casos (Köllner, 1973):
1. El modelo se puede desarrollar teóricamente y por ello en el trabajo experimental sólo se necesita
comprobar el modelo y determinar los coeficientes desconocidos del mismo.
2. Con el nivel de conocimientos presentes no se puede deducir un modelo justificado en forma teórica y
por ella la dependencia entre las variables tiene que determinarse experimentalmente, escogiendo
previamente las variables significativas del proceso.
Generalmente no se conoce la forma del modelo a ajustar; en ese caso es recomendable comenzar con un
modelo lo más simple posible. La información acerca del modelo del proceso debe ser, por supuesto, muy
precisa, pero esto puede lograrse haciendo un número de corridas experimentales lo suficientemente grande.
Sin embargo esta solución, por supuesto, es cara, y una forma de lograr los mismos objetivos con menos
recursos es localizando los valores de las variables independientes estratégicamente para cada corrida
experimental. Por tanto, si los experimentos se planifican adecuadamente, se obtiene la información deseada
en una forma eficiente.
Un plan experimental bien diseñado y su posterior ejecución ayuda en la selección de un mejor modelo,
dentro de un conjunto de modelos posibles y la estimación eficiente de los parámetros en el modelo
seleccionado. Ambos objetivos se investigan simultáneamente y casi siempre en forma secuencial, porque el
experimentador generalmente no conoce qué variables deben medirse, cuál es el rango en que las variables se
deben medir ni qué series de experimentos deben hacerse hasta que el programa experimental esté al menos
parcialmente ejecutado. Generalmente un plan experimental comienza con una hipótesis expresada en forma
de un modelo matemático.
Para probar la hipótesis se lleva a cabo un experimento, el cual, para obtener la información, se debe
diseñar adecuadamente. Los datos obtenidos del experimento tienen que analizarse para evaluar la hipótesis
original. Los resultados experimentales pueden conducir a modificar la hipótesis, en cuyo caso una nueva
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 65/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
hipótesis se formula o se confirma. En el primer caso, la nueva hipótesis debe ser probada, para lo cual debe
efectuarse otro plan experimental, y así se continúa hasta obtener resultados satisfactorios. Un experimento
es, por tanto, sólo una etapa que ayuda a la comprensión del proceso bajo estudio. El investigador debe
analizar cuidadosamente los resultados de sus experimentos, para determinar las direcciones en que los
cambios son realmente sustanciales.
Este proceso iterativo que caracteriza la investigación científica se muestra de forma esquemática en la
siguiente Figura 6.1. En esa figura se muestran los dos papeles distintos que la Estadística puede
desempeñar: diseño y análisis. De ellas, el más importante es el primero, el diseño: poca información útil
puede sacarse de los datos obtenidos en un experimento que no se ha planificado cuidadosamente. Sin
embargo, con un diseño adecuado, se puede obtener una clara visión de la situación con métodos de análisis
simples.
FIGURA 5.1 . Proceso Iterativo de la Investigación Científica (Tomado de Guerra y Sevilla, 1987)
Por lo antes expuesto y dada la importancia que tienen la Modelación Matemática y el Diseño Estadístico
de Experimentos para este objetivo, este Capítulo se dedicará totalmente a repasar los conceptos
fundamentales de estas técnicas, enfatizando en su realización práctica mediante la utilización de los
software especializados como el BioPro Designer para la simulación de los procesos industriales
biotecnológicos y el STATGRAPHIC en sus versiones para DOS y para Windows y el STATISTICA para
Windows, para el Diseño de Experimentos.
Por otra parte, los experimentos que se requieren para la aplicación de las técnicas del Diseño Estadístico
de Experimentos, se tomarán principalmente de ejemplos de los Procesos de la Industria Biotecnológica y en
lugar de la ejecución real de los experimentos se realizarán simulaciones en computadora, con el empleo de
modelos matemáticos desarrollados al efecto (González, R., 1996).
5.2 Simulación Matemática de los procesos Industriales.
5.2.1 Definiciones fundamentales.
Se define sistema como un conjunto de elementos en el cual todos se encuentran tan estrechamente
vinculados entre sí, que en relación con las condiciones circundantes se presentan como un todo único.
Existen muchos tipos de sistemas, pero en este capítulo estudiaremos los sistemas de los Procesos
Industriales. , definidos éstos como el conjunto de procesos físicos, químicos, bioquímicos y microbiológicos,
relacionados con la obtención de un producto o un grupo de productos dados .
Para el estudio de los sistemas resultan fundamentales los conceptos de modelo y simulación. Por modelo
se define la representación (imagen) de una realidad objetiva, a una escala igual o diferente a la original y,
los mismos pueden ser de diferentes tipos: analógicos, físicos, matemáticos, siendo en este caso de especial
interés los modelos matemáticos. Por simulación se entiende el estudio de un sistema mediante uno o más
modelos, y si los modelos a emplear son matemáticos, se tiene entonces una simulación matemática.
Otra definición de simulación ( González, V., 1987), es la que plantea que la simulación es un
procedimiento para la realización de experimentos por medio de una computadora digital y con la ayuda de
modelos matemáticos, con el fin de obtener información sobre el comportamiento del sistema. En general,
mediante las técnica de simulación se pueden analizar el efecto de las interrelaciones de un sistema o proceso
dado, determinar las recirculaciones (de materiales, energía o información), hacer estudios de capacidad,
detectar cuellos de botella, definir las condiciones límites de operación y otras aplicaciones más.
Por ello, la realización previa de los modelos que definen el comportamiento individual de cada elemento
de un sistema o proceso, permite el estudio integral de dichos procesos, mediante su simulación matemática
y se llega por lo tanto al concepto de Análisis de Procesos, que es la habilidad de convertir un problema de
Ingeniería en una formulación matemática, para obtener la información final del problema, mediante la
aplicación de las técnicas de computación.
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 66/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
Teniendo en cuenta estos elementos, no se puede considerar a la Modelación Matemática como un fin en
si mismo, sino como un paso hacia la simulación y a su vez la simulación se debe considerar como una
herramienta a utilizar en el Análisis de Procesos en general y en este caso, en los Procesos Industriales. No
obstante la modelación matemática constituye una primera etapa obligada para realizar la simulación y el
análisis de procesos.
5.2.2 Utilización de los software para la simulación de procesos biotecnológicos.
Para seleccionar la herramienta de simulación a utilizar, depende de que la etapa del proceso general de
escalado que se esté desarrollando. Cuando se trata de las etapas iniciales (laboratorio y banco
fundamentalmente), prácticamente sólo interesa el bioreactor y por lo tanto puede utilizarse un simulador
sencillo.
A manera de ejemplo se presenta en el material complementario a este Capitulo, un ejemplo de aplicación del
programa de simulación SIMBAS (acrónimo de Simulación en BASIC), desarrollado por Bungay, (1993). Con el programa
SIMBAS se pueden simular procesos descritos por un sistema de ecuaciones diferenciales y con el mismo se han desarrollado un
grupo de modelos de los procesos Biotecnológicos, que constituyen una gran parte de los materiales complementarios del presente
curso.
También es posible utilizar los paquetes de programas matemáticos como el MATEMATICA, el DERIVE o el TK SOLVER Plus
(Hughson, R. V., 1993), los cuales permiten evaluar los sistemas de ecuaciones diferenciales o algebraicos que se requieren para
los modelos de los bioreactores y demás componentes de los sistemas biotecnológicos, utilizándose también las facilidades de
construcción de gráficos que tienen esos programas. Además existe la variante de utilizar cualquiera de los tabuladores
electrónicos (spreadsheets) disponibles , como el EXCEL de Microsoft, con los cuales también se puede desarrollar adecuadamente
el proceso iterativo requerido para la solución de los sistemas de ecuaciones diferenciales u ordinarias que constituyen un modelo
matemático y presentar los resultados en forma de tablas y gráficos (Ravella, A., 1993).
Cuando se está en una etapa posterior, como la planta piloto o la instalación semi-industrial, hay que
tener en cuenta todas las etapas del proceso, o sea las operaciones de tratamiento previo, la bioreacción y el
procesamiento de los productos, por lo cual se necesita contar, con un software capaz de analizar el proceso
en su conjunto.
Esa tarea se facilita enormemente cuando se emplean los software de simulación de procesos industriales,
especialmente diseñados al efecto, de los cuales existen una gran cantidad disponibles en el mercado, aunque
principalmente han sido desarrollados para las industrias química, minera, energética y mecánica (Winter,
1992; Boston et al, 1993).
Uno de los más empleados en la actualidad es el ASPEN PLUS, el cual incluye un módulo para
Biotecnología, denominado BPS (Shioya y Suga, 1993), pero tiene el inconveniente que debe ser adquirido
el paquete de programas básico, además del módulo específico, lo que lo hace una opción muy cara para los
usuarios cuyo único interés es la Biotecnología (González, R. A et al, 1995). Una opción mejor es utilizar un
simulador específico y para ello se cuenta desde hace poco tiempo con el BioPro Designer, desarrollado en el
MIT y actualmente en explotación comercial (Aelion y Petrides, 1994).
El BioPro Designer tiene las siguientes características:
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 67/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
el BioPro Designer chequea que esté correctamente inicializado el flowsheet y recomienda al usuario
completar cualquier etapa que haya quedado pendiente.
Figura 5.2 Ambiente de trabajo del BioPro Designer (De Aelion y Petrides, 1994).
Figura 5.3 Menú Tasks para el desarrollo interactivo de los diagramas de flujos en el BioPro Designer
(De Aelio y Petrides, 1994)..
Operaciones Unitarias.
El BioPro Designer ofrece una amplia variedad de Operaciones Unitarias utilizadas en las industrias
bioquímica, farmacéutica y otras industrias de proceso. En la tabla 5.1 se muestra una relación de las
operaciones unitarias disponibles actualmente. Los modelos de todas esas Operaciones Unitarias son
algebraicos y pueden ser especificados tanto para estado estacionario como para operaciones discontinuas o
discontinuas incrementadas. Muchos de los parámetros de diseño y condiciones de operación de dichas
Operaciones Unitarias tienen valores por defecto, lo que facilita una inicialización rápida y un bosquejo
preliminar rápido de las distintas alternativas de operación.
Un modelo típico es el de un diafiltro (Figura 5.4). Un diafiltro es un equipo que emplea membranas de
separación para mejorar la purificación de sólidos retenidos, al cual se le añade un solvente para ayudar a
remover las especies permeables a la membrana. Estos equipos trabajan
Tabla 5.1 Operaciones Unitarias en el BioPro Designer (Tomado de Aelion y Petrides,
1994).
comúnmente en forma discontinua, pero pueden emplearse también en forma continua. En la operación
discontinua, los solutos permeables se clarifican del retenido por reducción de volumen, a lo que sigue re-
dilución y re-filtración, de forma repetitiva. Cuando en cada etapa ocurre una reducción de volumen igual
ocurre, la fracción final de un componente (Fi) que permanece en el retenido se estima por la siguiente
ecuación:
(5.1)
Figura 5.4 Icono para un diafiltro en el BioPro Designer (Aelion y Petrides, 1994).
donde (CF) es el factor de concentración en cada etapa, n es el número de etapas de reducción de volumen y
RCi es el coeficiente de rechazo promedio del soluto (i). El volumen de agua u otro solvente, requerido para
la dilución se estima mediante la ecuación siguiente:
(5.2)
donde Vo es el volumen de alimentación inicial. El valor del volumen de diluyente se utiliza para ajustar la
tasa de flujo de la corriente de diluyente.
En el caso de la operación continua, esta conlleva la adición de solvente con un pH y temperatura
apropiados, al tanque de alimentación a la misma tasa que el flux de permeado, de forma tal de que se
mantenga constante el volumen de alimentación durante el proceso. Los solutos permeables se eliminan a la
misma tasa que el flux. Este modo de diafiltración es particularmente útil cuando la concentración del soluto
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 69/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
retenido es muy alta para permitir una efectiva operación de diafiltración discontinua. La fracción de soluto
que queda en el retenido se estima por la siguiente ecuación:
(5.3)
donde (VPR) es la relación de permeación volumétrica. definida de la forma siguiente:
(5.4)
A su vez, el volumen de agua u otro solvente requerido para la dilución se estima por la siguiente
ecuación:
(5.5)
donde Vo es el volumen inicial de alimentación y el valor del volumen de diluyente se utiliza para ajustar la
tasa de flujo de la corriente de diluyente, de igual manera que en el caso de la diafiltración discontinua.
Todas las Operaciones Unitarias se inicializan activamente a través de una serie de ventanas de diálogo.
En las figuras 5.4 a y b, se muestran las ventanas de inicialización para un diafiltro. Los números presentes
en las ventanas son los valores por defecto, recomendados por BioPro Designer.
Figura 5.4 (a-b) Caja de diálogo para un Diafiltro en el BioPro Designer (De Aelion yPetrides, 1994).
5.3 Conceptos básicos del Diseño Estadístico de Experimentos.
El Diseño de un Experimento consiste en planificar los experimentos de la forma más racional posible,
de manera que los datos obtenidos puedan ser procesados adecuadamente y que mediante un análisis
objetivo conduzcan a deducciones aceptables del problema planteado, para lo cual se sobreentiende que la
persona que formula el diseño conozca los objetivos de la investigación propuesta.
Antes de comenzar el trabajo experimental se debe, por lo tanto, tener la información requerida del
sistema que permita contestar a las interrogantes siguientes:
1. ¿Cuáles son las propiedades de sistema que se van a estudiar?, o sea los llamados rendimientos o
variables dependientes.
2. ¿Qué factores afectan a estos rendimientos?, es decir qué parámetros o variables independientes que
determinarán los rendimientos y si se podrán controlar o medir adecuadamente.
3. ¿Qué factores se estudiarán y cuáles permanecerán constantes?
4. ¿Cuántas veces se deben repetir los experimentos?
5. ¿Qué cantidad de experiencias se deben efectuar?
6. ¿Cómo se deben realizar las experiencias?
Algunas de estas preguntas sólo se pueden responder por el conocimiento científico-técnico del sistema,
como por ejemplo las tres primeras, mientras que las restantes requieren del conocimiento científico-técnico,
del diseño estadístico de experimentos y de la lógica para su contestación.
El proceso de investigación en general, independientemente de le escala en que se halle (laboratorio,
banco o piloto), se desarrolla a través de una serie de etapas bien definidas: familiarización, tamizado de
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 70/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
variables y optimización.
En la etapa de familiarización, el investigador se familiariza con el nuevo sistema estudiar. Por
ejemplo, en la etapa de laboratorio (Murphy, 1977) esto puede ser el tratar de reproducir resultados
descritos en las patentes o en experimentos de estudios anteriores, o aprender a trabajar con un equipamiento
nuevo. En una planta piloto (Köllner, 1973), esta etapa se refiere a la serie de corridas preliminares que
deben realizarse para poder probar todos los componentes de la planta, incluyendo los equipos de medición y
control. Además es necesario determinar el tiempo de trasiente entre dos estados estacionarios del proceso, o
sea el tiempo que se requiere para que se alcance el estado estacionario, después de una variación en las
condiciones del proceso.
En esa etapa inicial de familiarización no resulta de utilidad el Diseño Estadístico de Experimentos, ya
que la mayoría de las experiencias se realiza de una forma intuitiva. Sin embargo, en todo el proceso
posterior, comenzando con el Tamizado de Variables, resulta imprescindible la utilización del Diseño
Estadístico de Experimentos y por ello no se debe comenzar ningún trabajo experimental sin hacer
previamente algún tipo de diseño pues puede ocurrir, si esto no se hace, que al final los datos obtenidos no
sean capaces de permitir el análisis de los efectos buscados.
Desafortunadamente muchas veces se trata de llevar el enfoque de la etapa inicial de familiarización al
resto de los trabajos y todavía persisten en muchos investigadores la costumbre de iniciar sus trabajos sobre
un sistema nuevo y, por lo tanto poco conocido, mediante métodos de tanteo intuitivos con el pretexto de no
poder aplicar las herramientas estadísticas hasta que no se tenga un conocimiento más amplio del sistema
(López, R., 1988).
Este proceder erróneo provoca la realización de un gran número de experiencias preliminares antes de que
se logre obtener de verdad información orientadora. En realidad es precisamente al comenzar el estudio de
un sistema nuevo, cuando es más recomendable iniciar la investigación aplicando técnicas de Diseño
Estadístico de Experimentos, especialmente de aquellas con las cuales se puede estudiar el efecto de algunas
variables en conjunto y definir sobre una base sólida, cuáles de éstas son significativas (Tamizado de
Variables).
En general se puede decir que hay tres principios básicos del Diseño Experimental:
Reproducción : Es la repetición del experimento básico para estimar el error puro o aleatorio, que
permitirá determinar si las diferencias observadas son significativas o no.
Aleatorización: En la mayoría de las pruebas estadísticas se supone que las muestras son independientes
unas de otras y que sólo están afectadas por los parámetros que se controlan. Para garantizar esto se
requiere tomar las muestras al azar o aleatoriamente de la población investigada.
Control local: Se refiere implícitamente, en primer lugar, al tipo de diseño experimental que se haya
realizado y en segundo lugar a las medidas que se tomar para controlar el proceso experimental como por
ejemplo:
1- Utilizar material o bloqueo experimental homogéneo para la estratificación cuidadosa del
material disponible.
2- Dirigir el experimento cuidadosamente.
3- Considerar las posibles variantes aleatorias
4- Emplear las técnicas analíticas y los equipos de control más adecuados.
Por último se debe señalar que es conveniente discernir dos grandes campos del Diseño Estadístico
Experimental, por una parte las Ciencias Biológicas y Agrícolas, en las que se utilizan principalmente los
diseños completamente al azar, bloques al azar y los cuadrados latinos y por otra parte las Ciencias Técnicas,
Química, Física y Farmacéuticas y algunos campos de las Ciencias Biológicas como la Microbiología y la
Genética Microbiana, en las cuales existe la posibilidad de controlar un número finito de variables, en cuyo
caso se emplean principalmente los Diseños Factoriales.
En este Capítulo se dará sólo una visión breve y general del Diseño Experimental en Biología y
Agronomía y se estudiará con más detalles el Diseño Experimental aplicable a las Ciencias Técnicas, Física,
Química y Farmacéutica y la Microbiología, haciendo énfasis en su aplicación práctica mediante la
utilización de los paquetes de programas estadísticos especializados. Para un análisis más detallado del
Diseño Experimental en el campo de la Biología y la Agronomía se deben consultar textos especializados
como "La Experimentación en las Ciencias Biológicas y Agrícolas ", (Lerch ,1977).
estas unidades. Por ser tan simple, es un diseño muy utilizado, sin embargo hay que tener en cuenta que sólo
deben ser aplicados a unidades experimentales homogéneas..
Ejemplo de clasificación simple:
Se desea estudiar el efecto de distintos tipos de alimentación en 30 cerditos seleccionados para los cuales
se asume que sean similares en su comportamiento. No obstante esto, siempre existe la posibilidad de que
existan diferencias entre ellos, por lo que resulta conveniente realizar las experiencias aleatoriamente, o sea,
asignarle al azar un orden de ejecución a la aplicación de los alimentos a los cerditos. Esto se puede efectuar
numerando simbólicamente los cerditos del 1 al 30, colocar 30 papeles numerados en una bolsa y sacar los
números al azar. El primer número que salga recibirá el tratamiento F-1, el segundo el tratamiento F-2 y así
sucesivamente.
El diseño en bloques al azar es, sin lugar a dudas, el diseño más utilizado en la investigación agrícola y
biológica y en el mismo las unidades experimentales se distribuyen en grupos o bloques, de manera que las
unidades experimentales dentro de un bloque sean realmente homogéneas, y el número de unidades
experimentales dentro de él, sea igual al número de tratamientos por investigar (López, R., 1988). En este
caso se asignan al azar los tratamientos a las unidades experimentales dentro de cada bloque y la formación
de bloques refleja el criterio del investigador respecto a las respuestas diferenciales potenciales de las
diversas unidades experimentales, mientras que el proceso de aleatorización actúa como una justificación de
la suposición de independencia.
Ejemplo:
Se desea probar el efecto de 10 tipos de alimentación en 40 cerditos, que se distribuyen en 4 bloques de
acuerdo con sus pesos iniciales. Los cerditos más pesados se agrupan en el primer bloque (10 cerditos) y así
sucesivamente. Los 10 tratamientos (desde A hasta J) se asignan al azar, como se muestra a continuación:
Bloque Tratamiento
1 H B F A C I E J D G
2 A I G H J D F E C B
3 E A C I B H D G J F
4 J F D B H I A C G E
En el Diseño en Cuadrados Latinos, el número de réplicas debe ser igual al número de variantes o
tratamientos, los cuales se distribuyen al azar. Como ejemplo de la aplicación de esta técnica se tiene el caso
en que se desean probar 5 tipos de herbicidas en una siembra de caña. Se requiere dividir el terreno en 5
franjas (A, B, C, D y E) de acuerdo con su fertilidad (franjas de alto y bajo rendimiento) y dentro de cada
franja se toman 5 parcelas, una para cada tratamiento, como se muestra a continuación:
Franja Parcela
1 C A E B D
2 B E D A C
3 D C B E A
4 E D A C B
5 A B C D E
un solo factor; por ejemplo: distintas concentraciones de un nutriente en una dieta, distintas formas de
realizar una experiencia, etc. En esos casos resulta muy común emplear los diseños completamente al azar
y se pueden emplear entonces los Análisis de Varianza de clasificación simple, la prueba múltiple de t o la
mínima diferencia significativa, aunque se prefiere en la actualidad el uso de la prueba de Duncan o de
rango múltiple.
Cuando se estudia el efecto combinado de dos factores, como por ejemplo el tipo de alimentación y peso
inicial de los animales de experimentación; variedad de una planta y tipo de suelos, etc., es necesario utilizar
entonces el método de Análisis de Varianza de clasificación doble, complementado con la prueba de
Duncan. En este tipo de experimentos el número total de variantes a estudiar es igual al producto de los
niveles del primer factor por los niveles del segundo factor y se organizan ya sea por el método de los
bloques al azar o por los cuadrados latinos.
En la actualidad existen otros diversos tipos de diseños en los experimentos biológicos y agronómicos que
se han adecuado para situaciones particulares, como por ejemplo, los métodos de clasificación triple, etc.,
que pueden ser consultados en textos especializados (Lerch, 1977.).
5.3.2 El Diseño Experimental Estadístico en las Ciencias Técnicas, Químicas, Físicas , Farmacéuticas y
la Biotecnología.
Introducción.
En este campo de trabajo es usual trabajar con pocas variables, conocidas y casi siempre controlables,
por lo que se planifican los experimentos con vistas a obtener modelos matemáticos, empíricos, o
mecanísticos, que describan el sistema estudiado. Aquí es importante destacar que este tipo de situaciones no
se observa sólo en estas ciencias, sino que se observa también en algunos campos de las ciencias biológicas,
como por ejemplo en la microbiología y en la genética microbiana.
En este punto resulta conveniente definir la palabra experimento, puesto que puede resultar ambigua, al
igual que otros términos utilizados en un diseño estadístico. En este tipo de problemas, una corrida
experimental (o simplemente una corrida como se nombra usualmente), es simplemente un experimento
único, mientras que un grupo de corridas, dirigidas hacia la obtención de algún objetivo, se denomina
Diseño Experimental o simplemente diseño.
La anatomía de una corrida se representa en la Figura 6.2 (Murphy, 1977). El resultado de la corrida es
una respuesta obtenida o observación hecha en una unidad experimental. El valor de la respuesta para
cualquier corrida, dependerá de los ajustes de una o más variables experimentales o factores, los cuales están
bajo el control directo del investigador.
Desafortunadamente para los experimentadores, este cuadro de una corrida experimental incluye además
muchas variables no controladas y a veces incluso desconocidas, que también influyen en la respuesta y que
tienden a provocar variaciones tanto sistemáticas como aleatorias que tienden a enmascarar los efectos
verdaderos de los factores en la respuesta. Como ejemplo de dichas variables están el efecto sistemático de
las condiciones ambientes y las diferencias en el equipamiento, material de arrancada y técnicas empleadas
en los experimentos. Variaciones aleatorias se pueden producir también por errores en las pesadas, en la
transferencia de materiales y en la lectura de instrumentos. Por todo esto, un buen Diseño Experimental debe
considerar las posibilidades de impacto de ese tipo de variables, en la posibilidad de sacar conclusiones
adecuadas de los experimentos y poder alcanzar los objetivos experimentales.
Los principales elementos en general, que se deben considerar en un Diseño Estadístico de Experimentos,
se presentan en la Tabla 5.2. El primero resulta obvio, no obstante es sorprendente como en muchos casos no
se llegan a resultados adecuados por defectos en el planteamiento inicial del problema. La relación de
variables de respuesta también resulta de vital importancia y ya no resulta obvia. Las respuestas pueden ser
cuantitativas (continuas), cualitativas (discontinuas) y binarias. De ellas las de más fácil manejo son las
continuas y para las discontinuas una buena solución es evaluarlas en una escala numérica, por ejemplo de 5
a 10, convirtiendo así la respuesta a una variable semi-cuantitativa. En el caso de las binarias, puede tratarse
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 73/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
también de llevar a formas discontinuas, pero muy frecuentemente se necesitan emplear técnicas especiales
para su manejo.
Los factores o variables independientes experimentales, son controladas por el experimentador y el nivel
de un factor es el valor fijado para el factor durante una corrida experimental. Al igual que las respuestas, los
factores pueden ser clasificados de acuerdo con la escala de medición, como continuos o cuantitativos como
el tiempo y la temperatura y cualitativos, discontinuos o categóricos como el tipo de catalizador o solvente
empleado. También en este caso son más difíciles de manejar los discontinuos y la solución común es
emplear dos niveles en el experimento, definiendo con (+1) o simplemente con el signo (+) la presencia o el
carácter positivo del factor y con (-1) o con el signo (-), lo contrario.
Tamizado de Variables, cuando el interés debe centrarse en los factores que tienen un mayor efecto en la
respuesta Y. En ese caso, si b1 tiene un valor cercano a cero, se dice que el factor no tiene un efecto
significativo en la respuesta.
En general se tiene la tendencia a considerar que la relación factor/respuesta tiene una forma curva y en
ese caso se obtiene una mejor representación con la función de segundo orden (Figura 5.6):
(5.7)
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 74/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
Aquí es posible determinar un óptimo grosero, localizado en un nivel del factor igual a -B1/2B11. Por su
parte, al coeficiente B11 se le denomina coeficiente de curvatura. Si B11 es cercano a cero, se dice entonces
que la respuesta no tiene curvatura y por ello es aproximadamente de primer orden, es decir lineal, con
respecto al factor X.
Para el caso de la existencia de dos o más factores, puede existir una situación más complicada conocida
como interacción, lo que significa que los factores no operan independientemente sobre la respuesta. En el
caso de que exista independencia en lugar de interacción, se dice entonces que los factores son aditivos.
Cuando no hay o es muy poca la curvatura con respecto a cualquiera de los factores, el modelo más simple
para dos factores es:
(5.8)
en el cual B1 y B2 son las pendientes correspondientes a los factores X1 y X2, respectivamente, mientras que
B12 es el parámetro de interacción y cuando el mismo se hace cero, se está en presencia de un modelo aditivo
de primer orden. En ese caso cuando se grafica Y vs. X1 para dos valores constantes de X2 cualesquiera, se
obtienen dos líneas rectas paralelas (Figura 6.5). Cuando el término B12 tiene un valor distinto de cero el
modelo es interactivo. En ese caso un gráfico de Y vs. X1 para dos valores constantes de X2 produce dos
líneas rectas no pararelas (Figura 6.6).
Cuando la relación existente entre la respuesta y un factor es de forma curva, entonces debe añadirse un
término cuadrático o de curvatura. En ese caso el modelo completo de segundo orden sería:
(5.9)
Este tipo de modelos puede brindar una excelente descripción de la respuesta dentro de la región de
experimentación y puede usar para propósitos de interpolación o para encontrar un óptimo interno grosero, si
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 75/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
éste existe. En la figura 6.7 se presenta un gráfico de Y vs. X1 para valores constantes de X2. Otra forma útil
de presentar esta relación es mediante un mapeo de los contornos de la superficie respuesta Y sobre el
espacio factorial definido por los valores de X1 y de X2 (Figura 6.8). Este gráfico indica una respuesta
máxima cerca del centro del espacio factorial. Sin embargo, es importante enfatizar que este tipo de modelos
empíricos de segundo orden, son muy poco confiables para predicciones fuera del rango de experimentación
en que han sido ajustados.
Para el caso general de n factores, el modelo empírico general de segundo orden será:
(5.10)
el cual tiene parámetros a ser estimado. Puesto que este número de parámetros puede llegar
a ser muy grande rápidamente cuando se incrementa n, generalmente se asume un modelo más sencillo (por
ejemplo un modelo de primer orden) al inicio de la investigación, cuando el número de factores
considerados es muy elevado y cuando el número de factores se va reduciendo, el modelo se puede ampliar a
uno de segundo orden, parcial o total o incluso a un modelo teórico (determinístico).
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 76/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
extremos del factor y se denomina como punto central y se codifica como medio o (0). El efecto de
curvatura se define entonces como la diferencia entre la respuesta experimental del punto central y la
respuesta esperada de un modelo de primer orden que se ajuste a los puntos extremos (Figura 6.10).
En la práctica es difícil que se necesiten más de tres o cuatro niveles para un factor, excepto en los casos
en que se trata de seleccionar el mejor modelo teórico a emplear y pueden ser necesarios entonces más
niveles de los factores para poder seleccionar entre muchos modelos candidatos (Murphy, 1977).
Para más de un factor, cada corrida experimental se define como una combinación de niveles de factores.
Por ejemplo, en el caso de dos factores, el efecto de interacción debe ser estimado de forma adicional a los
dos efectos principales y para ello el mínimo número de corridas debe ser cuatro, puesto que se deben
estimar las dos pendientes de la relación Y vs. X1 y comparar esas pendientes a dos valores de X2 para
chequear si hay o no interacción. Si el efecto de interacción es cero, las líneas son paralelas, como ocurre en
la Figura 6.5.
Las cuatro corridas mencionadas anteriormente se conocen como un Diseño Factorial 22 y es un miembro
de la clase de diseños conocida como Factoriales 2n, o sea n factores por corrida, cada uno de los cuales se
evalúa a dos niveles y se tienen en cuenta todas las combinaciones posibles entre dichos niveles y factores.
Las combinaciones de niveles factoriales en los diseños 22 y 23 se presentan en las figuras 6.11 y 6.12,
representadas
.como las esquinas de un cuadrado y un cubo respectivamente.
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 77/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
Figura 5. 17 Combinaciones de los niveles factoriales en los diseños 22 y 23 (De Murphy, 1977).
El efecto de curvatura se puede estimar en este tipo de diseño, añadiendo un tercer nivel de cada factor en
diversas combinaciones de los factores restantes. Sin embargo, en las etapas iniciales de investigación es más
económico analizar la curvatura global del sistema y eso puede ser hecho mediante la adición de una
combinación de todos los factores en el punto central, localizado en el centroide del diseño y en el caso de
los diseños 22 y 23 la corrida en el punto central se localiza en los centros del cuadrado y del cubo
respectivamente, como se muestra en la Figura 5.18.
Figura 5.18 Ubicación de puntos de réplica en el centro del diseño (Murphy, 1977).
Si la corrida en el punto central detecta un efecto de curvatura global apreciable, se deberán realizar
entonces corridas adicionales para obtener estimados separados del efecto de curvatura para cada factor. Esas
corridas adicionales se conocen como puntos axiales o de estrella y cuando se combinan con los diseños 2n
más el punto central, constituyen los denominados Diseños Compuestos Centrales (Figura 5.18). En esos
casos los puntos de estrella o axiales están localizados a una distancia del punto central, la cual varía desde 1
hasta 2n/4, donde n es el número de factores.
Una de las mayores desventajas de los Diseños Factoriales 2n es el gran número de corridas que se
necesita cuando n se incrementa. Para resolver este problema, se utilizan determinadas fracciones o
subconjuntos de los Diseños Factoriales Completos. Esos Diseños Factoriales Fraccionarios, se utilizan
principalmente durante la etapa de Tamizado de las Variables, y pueden ser posteriormente expandidos a
fracciones mayores o incluso al diseño completo, cuando el número de variables se ha reducido
convenientemente. En la figura 6.16 se presenta un ejemplo de una Fracción 1/2 del Factorial 23, conocida
también como factorial 23-1, en la cual cualquiera de los dos conjuntos de 4 corridas puede dar un estimado
de los efectos principales de un modelo de primer orden en tres factores.
También se emplea un variante de los Diseños Factoriales Fraccionarios conocida como Diseños
Saturados, en los cuales se pueden tratar (n-1) factores con n experimentos, o una variante de los mismos
conocida como Diseños Plackett-Burman, en los cuales se tratan un número algo menor, o sea (n-2) o (n-4)
factores, para dejar de 2 a 4 columnas no asignadas para evaluar grupos de interacciones (Murphy, 1977;
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 78/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
López, 1988). Este tipo de diseño es muy útil y muy empleado en la etapa del Tamizado de Variables. Algo
más recientemente se han comenzado a aplicar las Técnicas de Diseño Robusto de Taguchi ( ), también para
un gran número de variables, las cuales a su vez toman como punto de partida diversos tipos de Diseños
Ortogonales.
Tamaño del Diseño Experimental.
La precisión de un estimado de efecto principal, interacción o curvatura depende del número de datos que
se utilice en dicho estimado, en unión a la magnitud del error de la respuesta . En un diseño 2n, se emplean
todos las corridas para estimar los efectos principales y la interacción y por ello el experimentador debe de
fijar el número total de corridas N requeridas para alcanzar la precisión deseada.
Para hacer esto, el experimentador determina el mínimo cambio de la respuesta que resulta de interés
técnico en la investigación en particular que se está llevando a cabo, el que se denota por el símbolo . El
experimento debe ser capaz de brindar esa respuesta, si existe, de manera tal que la misma pueda ser
declarada estadísticamente significativa con un alto grado de probabilidad. Para esto se toma como base la
relación /, desarrollada por estadísticos y mostrada en la Figura 5.19.
Figura 5.19 Número de experimentos necesarios para un error de la respuesta dado (Murphy, 1977).
Del análisis de la figura se comprueba que si se quiere detectar un efecto igual al doble del error de la
respuesta (/ = 2), se requieren alrededor de 14 corridas, la que se reduce a sólo 7 si el efecto a detectar es 4
veces el error y se eleva a 50, si por ejemplo, la respuesta a detectar está en el mismo orden de magnitud del
error de la respuesta.
Si N es mucho más grande que el valor en el diseño que se ha escogido, basado en el modelo matemático
adoptado, se hace necesario repetir, o replicar, el diseño entero una o más veces. El primer propósito de esa
replicación es suministrar suficiente precisión para los estimados, pero un propósito secundario útil es
suministrar un estimado más preciso del error de la respuesta (), el cual puede emplearse para determinar el
tamaño requerido para los diseños sucesivos.
Orden de la experimentación.
Para prevenir las tendencias sistemáticas de variables no controladas o desconocidas, durante la ejecución
del diseño, es prudente realizar de forma aleatoria las distintas corridas. Esto se puede hacer utilizando
cualquier proceso de generación de números aleatorios o mediante el empleo de boletas numeradas en una
caja, las que se van extrayendo al azar y definen el orden del experimento.
También hay que considerar que las unidades experimentales no siempre son homogéneas y que pueden
diferir producto de alguna variable no controlada conocida. Esta situación requiere que las unidades
experimentales sean segregadas en bloques de unidades experimentales homogéneas. Cada bloque puede ser
considerado como un nivel de una variable extraña o de bloque. Ejemplos de variables de bloque son las
templas de materiales, el tipo de equipamiento, la estacionalidad, etc.
El tamaño del bloque es el mínimo número de experimentos disponible en un bloque. Si el tamaño del
bloque es igual o mayor que la mitad de las corridas en un Diseño Factorial, Completo o Fraccionario, el
factor de bloqueo puede incluirse simplemente como otro factor en el diseño.
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 79/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
(5.11)
donde Xi es el valor codificado de la variable i, Vi es el valor real de la variable. A su vez Vn es el valor
promedio de la variable en el intervalo, o sea :
(5.12)
y M es el módulo o recorrido de la variable que se calcula por:
(5.13)
en cuestión , produce un cambio despreciable en la respuesta y por tanto ese factor no necesita ser
considerado en la optimización posterior y puede por lo tanto ser eliminado.
Ahora bien, en este punto hay que tener en cuenta que un valor muy bajo de un coeficiente dado puede
obtenerse también por las siguientes causas:
1. El nivel escogido para cada factor está cercano a un máximo condicional de la respuesta.
2. La magnitud del cambio para ese factor ha sido escogido desproporcionalmente pequeño.
La primera de esas causas será precisamente el criterio a utilizar en la búsqueda del óptimo en los pasos
de aproximación iniciales, como se verá más adelante y la segunda muestra una vez más la importancia
decisiva que tiene realizar desde el inicio una adecuada selección de la magnitud del cambio a efectuar en
cada factor, o sea sus niveles.
Como ejemplo de esta etapa del Diseño de los Experimentos se tiene el trabajo realizado por Benítez y
colaboradores (1995) para la selección de los factores más importantes en el proceso de obtención de
hecogenina a partir de la fermentación del jugo de henequén. En ese trabajo se partió de siete factores, y se
decidió estudiarlos en los niveles que se muestran en la Tabla 5.3.
Se aplicó un Diseño Saturado, con dos réplicas en el centro, con la ayuda del Statgraphics Versión 6.1 y se
obtuvo que las variables significativas son la temperatura y la agitación, por lo cual se pudo pasar a la etapa
posterior de optimización inicial y final.
En este caso particular, no fue necesario realizar la etapa de Optimización inicial debido a que los niveles
escogidos para el tamizado estaban precisamente en la zona del óptimo, por lo cual se pudo pasar
directamente a un Diseño Compuesto Central, para la realización del cual se conservaron los resultados
obtenidos en el Diseño Saturado utilizado en el Tamizado (Benítez et al., 1995). (Los resultados obtenidos se
verán en la Clase Práctica).
(5.14)
donde m = n-1 y todos los términos del modelo deben ser estimados.
El tipo de diseño empleado en esta etapa es el Diseño Compuesto Central, el cual es básicamente un
Factorial 2n aumentado con los puntos centrales y los puntos estrella. Además se pueden emplear también
los diseños 3n y el diseño tipo Box y Behnken (Murphy, 1977), estando estas tres opciones disponibles en el
paquete de programas Statgraphics Versión 6.1.
Para el análisis final del óptimo, resulta útil obtener el gráfico de la Superficie Respuesta, así como el
Gráfico de los Contornos, los cuáles se obtienen también disponibles en el STATGRAPHIC. Como ejemplo
se tiene el proceso de optimización final realizado durante una investigación para optimizar el medio de
cultivo de Schizophyllyum commune para la obtención de la enzima xilanasa (Haldricht et al., 1993).
En ese caso también se partió del tamizado inicial y del proceso de optimización inicial, para finalmente
alcanzar la región estacionaria donde estaba el óptimo. A manera de ejemplo se muestra la forma de la
superficie rspuesta obtenida, para dos de los factores principales. El resto de los resultados se apreciarán
durante la Clase Práctica correspondiente.
5.4 Utilización del paquete de programas estadistico Statgraphics para el Diseño Estadístico de Experimentos.
En la versión 6.1 para DOS de este software, se cuenta con la opción Experimental Design, dentro del
Menú Quality. A su vez, Experimental Design presenta tres opciones: Screening Design, Surfase Response
Design y Surface Response Plotting. Con la opción Screening Design, se realizan los Diseños Estadísticos
de Experimentos para las fases de Tamizado de Variables y de Optimización Gruesa, mientras que con la
opción Surface Response Design, se realizan los Diseños correspondiente a la fase de Optimización final. La
opción Surface Response Plotting, es simplemente una facilidad gráfica para obtener tanto las superficies
respuesta como el gráfico de los contornos para las funciones correspondientes, que se puede utilizar con
independencia del Diseño de Experimentos, ya que dentro de las opciones tanto de Screening Design como
de Surface Response Design, se cuenta también con las facilidades para ese tipo de gráficos, sin necesidad de
ir a la opción Surface Response Plotting.
El uso de este sofware se ilustrará con los ejemplos en el Laboratorio y clase práctica correspondiente,
para lo cual se emplearán las aulas especializadas de computación.
MATERIAL COMPLEMENTARIO
1- Programa SIMULFERM para simular la realización de los experimentos, de forma tal de poder aplicar las
técnicas estudiadas en casos diferentes a los ejemplos mostrados.
2- Ejemplo de aplicación del BioPro Designer.
CAPITULO 6
PLANTAS PILOTO
6.1 Introducción.
En los procesos de la industria química se han empleado las plantas de escala pequeña con dos propósitos
principales: como precursores de una planta de producción a escala completa, que no ha sido aún construída,
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 82/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
y para estudiar el comportamiento de una planta de producción existente, de la cual la unidad pequeña es una
reproducción.
En el primer caso se acostumbra denominar las plantas pequeñas como plantas piloto y en el segundo
caso se les denomina plantas modelo, aunque en realidad esta distinción no tiene mucha importancia
práctica. En muchas ocasiones una planta piloto se mantiene funcionando aún después que se ha construído
y puesto en marcha la unidad comercial de la que fue precursora y pasa entonces esa planta pequeña a
trabajar como planta modelo. A su vez, muchas plantas modelo se utilizan para desarrollar variantes del
proceso que modelan y llegan por tanto a ser precursoras de una nueva planta o de la remodelación profunda
de la planta industrial existente.
Además, desde el punto de vista de la Teoría de los Modelos y el escalado, no es importante si el
prototipo existe antes o después que el modelo y los procesos de scale-up y scale-down no son más que
partes de un único proceso de escalado (Capítulo 1). Por todo lo antes expuesto y considerando la mayor
complejidad de la tarea de desarrolar (o utilizar) una planta a escala pequeña como planta piloto, este
capítulo tratará en especial de ese tipo de plantas, con lo cual se cubren también los objetivos requeridos para
el desarrollo y utilización de las plantas modelo.
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 83/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
escala piloto y englobar en el mismo el uso de las plantas piloto. en sus diversas variantes y los mockups
(36, 37).
En su conjunto, la etapa piloto se opera con los objetivos siguientes (Capítulo 1):
5.3.2 Instrumentación.
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 84/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
En los inicios del empleo de las plantas piloto sólo se necesitaba un termopar en el líquido, otro en
el espacio de vapor, un manómetro en el reactor y un amperímetro en el motor del agitador. Entre otras
cosas, determinaba el hecho de que no se disponía de tiempo para graficar más puntos o correlacionar
más variables.
En la actualidad, sin embargo, las capacidades modernas de procesamiento de datos hacen posible
recolectar, registrar y correlacionar cientos de datos en la unidad de tiempo; emplear esa información para
controlar el proceso y hacer que la misma esté disponible para el diseño de la planta. Por esta causa la
tendencia actual es medir prácticamente todo, de manera de estar seguros que no se olvida ningún evento
crítico.
Todo eso tiende a ser caro y frecuentemente llega a ser tan caro como su contraparte a escala completa.
Los sensores, indicadores, transmisores, controles, recolectores de datos y computadoras cuestan
prácticamente lo mismo si se emplean en una pequeña unidad piloto o en una unidad de producción, aunque
se producen algunos ahorros debido al número de unidades empleadas, la longitud de las corridas de
transmisión, el empleo de instalaciones temporales, etc. (28, 41).
tántalo, reactores recubiertos con titanio y equipos con aleaciones especiales, aunque
generalmente este tipo de equipamiento han quedado de plantas pilotos anteriores.
Las plantas mayores de este tipo se hallan en Europa, para las cuales se han construído grandes
edificios con todas las facilidades auxiliares disponibles en su conjunto y están provistas de filas de
reactores, de diferente tamaño, normalmente de acero inoxidable o acero recubierto con vidrio, con
conjuntos de distilación individuales, tanques de alimentación y recepción, bombas, instrumentación,
aparatos de separación, secadores de diverso tipo y los medios necesarios para interconectar prácticamente
cualquier
cosa.
Ese tipo de plantas resulta muy cara en su concepción inicial, pero después de construída, cubre
prácticamente todas las necesidades posibles de los ingenieros de plantas piloto y, cuando es necesario
realizar una corrida de planta piloto en específico, los gastos en equipos son prácticamente nulos,
limitándose a alguna reconstrucción de tuberías.
El uso de este tipo de plantas lleva a la necesidad de que los equipos cumplan diferentes tareas en
diferentes proyectos y para ello hay que tener en cuenta dos puntos importantes:
1- Hay que asegurarse que cada configuración tenga todos los dispositivos de seguridad necesarios
para cada reacción específica. Por ejemplo: ¿Están los discos de ruptura o válvulas de seguridad ajustadas
para que accionen a la presión requerida y son del diámetro correcto? ¿Existen restricciones en la línea de
venteo o es ésta demasiado larga? ¿Puede suministrar el condensador de la columna, la carga de
enfriamiento esperada? ¿Se cuenta con sistemas secundarios de seguridad tales como sistemas de
drenaje total rápido o de enfriamiento súbito (quench)? ¿Puede este equipo operarse de forma segura
con independencia de cómo se desarrolle la reacción química?
2- Hay que estar seguro de que la instalación esté suficientemente instrumentada para que pueda
dar los datos de diseño necesarios. Normalmente las instalaciones permanentes tinen los sensores para
indicar, registrar o controlar la temperatura de la chaqueta de los reactores (mediante vapor o flujo de un
medio de enfriamiento y calentamiento), temperaturas internas, presión interna, caída de presión a través
de la columna, temperatura en el tope de la columna y temperatura de salida del condensador y
ocasionalmente se mide también la potencia del agitador. Cuando se tiene dsponible instrumentación
adicional es porque quedó instalado de un trabajo anterior de la instalación.Cuando se analice lo relacionado
con la instrumentación que se requiere se debe tener en cuenta los requisitos con relación a la
velocidad, sensibilidad y precisión de la respuesta de los instrumentos; localización de los puntos
sensores; selección entre indicación local o remota; velocidad de búsqueda y análisis de la
información y las funciones de control que se requieren.
La planta piloto debe producir cantidades de muestra de producto con la calidad adecuada y con los
requerimientos previstos.
Los productos obtenidos en la planta piloto se pueden usar en una gran cantidad de vías: para chequear
la pureza obtenida; para suministrar muestras para clientes potenciales; para suministrar muestras de
campo para pruebas a gran escala, para realizar estudios toxicológicos y ambientales, etc. Incluso en
ocasiones el producto de una planta piloto se emplea como alimentación de otra planta piloto, en una
operación diferente.
La importancia de que se pueda alcanzar la producción con la calidad requerida y con los
redimientos esperados se comprueba con el hecho de que, en la mayoría de los casos, las proyecciones de
costo se realizan a partir de los estimados de rendimiento realizados en el laboratorio y todo el proyecto
puede ser abortado si en las corridas de la planta piloto no se obtienen rendimientos que igualen o superen a
los previstos en el laboratorio.
Es por ello imperativo que los rendimientos de las distintas etapas y la eficiencia en la utilización de
las materias primas se midan con precisión y exactitud y para ese objetivo se requiere que la planta piloto
esté instrumentada adecuadamente y permita obtener datos confiables de los balances de materiales.
Los requerimientos en este sentido van desde el caso más simple en el cual es suficiente contar con básculas
exactas para las materias primas y los productos, hasta los casos en los cuales los balances de materiales no
brindan la información adecuada a menos que se empleen flujómetros altamente sensitivos acoplados con
equipos de análisis químico en línea (30).
Finalmente, lo más importante es que los valores de calidad del producto y rendimiento se obtengan
de un proceso que simule realmente al proceso final, de escala industrial.
-La operación de la planta se debe enfocar en los equipos de proceso críticos para el futuro proceso a
escala industrial y no debe verse afectada por la lucha contra problemas específicos de la escala
pequeña que no se tendrán en la escala industrial.
Los problemas típicos de la escala pequeña, que deben ser evitados en la etapa de diseño de la planta
piloto, son los siguientes:
1. Obstrucciones de líneas que ocurren cuando se emplean tuberías y conecciones muy pequeñas.
2. Congelamiento de líneas debido a las dificultades o a la imposibilidad de aislar o proteger con
trazadoras tuberías muy pequeñas.
3. Dificultades en la transportación a escala pequeña de materiales, principalmente en el caso de los
sólidos. Dificultades con el escalado descendente de la instrumentación.
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 88/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
El secreto está en saber reconocer estas fuentes de problemas y evitar caer en ellas, aunque en
ocasiones no es posible evitar que ocurran y en ese caso la solución es rediseñar y construir nuevamente
la sección que confronte este tipo de problemas. Para reducir el riesgo de caer en esta situación, debe
tenerse un cuidado especial con los siguiente aditamentos y equipos:
1. Las válvulas de aguja son fuente perpetua de problemas en sistemas en los que se manipulen sólidos
o los mismos puedan aparecer durante la reacción. Hay que tener en cuenta que aunque las mismas
garantizan un trabajo muy preciso en sistemas limpios, tienen un área de paso muy pequeña y es
preferible seleccionar válvulas de bola de gran porte, a pesar de que puedan ser sobredimensionadas
con respecto a la tubería a la
2. que van a estar conectadas.
3. Los accesorios de tuberías (fittings) pueden causar taponeamientos y deben ser evitados en los
sistemas que manejan sólidos o se deben colocar de forma tal que sea posible limpiarlos con
facilidad.
4. Algunos medidores de flujo, como los rotámetros y los del tipo turbina, son magníficos para la
escala industrial pero están llenos de problemas en los sistemas pequeños y sucios. La lectura obtenida
de los mismos será cuestionable si ocurre obstrucción parcial de los orificios o si las propelas o
flotadores se cubren de depósitos.
5. Los tubos sumergidos empleados para toma de muestras tienen tendencia a obstruirse y aunque la
colocación de pequeños coladores en su parte inferior puede resolver este problema, lo mejor es
emplear siempre las tomas de muestra de tipo positivo y emplear siempre que sea posible tuberías
colocadas en el fondo de los recipientes, de manera tal que la carga del líquido favorezca su salida.
6. Los dispositivos para la alimentación de sólidos en escala muy pequeña tienden a presentar problemas
con la exactitud de la medición si los sólidos están húmedos, son higroscópicos o tienen tendencia a
compactarse o aglomerarse. Es casi siempre mejor alimentar soluciones en lugar de sólidos o lodos, por
lo cual debe tratarse de disolver la materia prima en cuestión para después alimentarla al reactor con
una bomba de medición convencional.
-El panel de instrumentación debe estar separado del sistema de la planta piloto.
De ser posible, con la única exepción de unos pocos indicadores locales, los instrumentos deben ser
montados en un panel separado del sistema de la planta piloto y preferentemente en forma de un panel
semi-gráfico. Esa decisión inicial se justifica por las diversas ventajas que tiene:
Hay menos peligro y dificultad para el operador que tiene que recolectar los datos, ya que no tiene que
tener contacto con superficies calientes ni pasar trabajo para acercarse a los instrumentos de
medición.
Se pueden leer todos los instrumentos por más de una persona a la vez, de forma confortable y eso
asegura que los mismos sean revisados más a menudo.
Mientras una persona ajusta alguna parte de la planta piloto, otra puede observar los instrumentos
para chequear si la respuesta es correcta, lo que es especialmente conveniente cuando la planta
piloto está en control manual y se debe ajustar un flujo crítico o cualquier otra variable importante.
Cuando se requiere instrumentación redundante, los indicadores locales se pueden dejar en la propia
instalación piloto y los remotos se colocan en el panel.
Se pueden mantener mejor los instrumentaos cuando están separados del sistema de reacción.
Esto permite también realizar la reparación de algunos instrumentos sin tener que paralizar la
instalación piloto.
Si el proceso a pilotear es peligroso, es especialmente importante contar con un panel de
instrumentación remoto, que permita crear condiciones más seguras para los operadores. Además,
en la mayoría de los casos es más barato unir todos los instrumentos en una cabina única protegida
con gas inerte que mantener cada uno de ellos en el proceso, en condiciones a prueba de explosion.
-La planta piloto debe ser capaz de trabajar de forma ininterrumpida durante el periodo de tiempo
previsto.
Esto significa que las averías mecánicas deben ser minimizadas y para ello debe realizarse un trabajo
previo considerable para identificar tantas situaciones problemáticas potenciales como sea posible. Cuanto
más preparado se esté anticipadamente, en mejores condiciones se estará para resolver los problermas
que se presenten, a tiempo y de una manera ordenada.
Se debe estar preparado para responder preguntas como éstas:
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 89/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
Este tipo de preguntas relacionadas con el proceso son tan importantes como las preguntas
comunes de los manuales de operación acerca de lo que se debe hacer ante una falla de energía
eléctrica, agua de enfriamiento, aire de instrumentación o vapor. El estar preparados con antelación para
responderlas y por lo tanto para actuar en consecuencia, es una garantía para evitar las complicaciones que
provocan interrupciones en la operación.
El estudio detallado de las posibles complicaciones y la forma de prevenirlas y resolverlas con rapidez
cuando ocurran, permite confeccionar un programa realista, tanto del proceso de construcción y
puesta en marcha de la planta piloto, como del desarrollo de las distintas corridas experimentales
previstas.
En ese programa debe contemplarse el diseño de la instalación, la compra de los equipos. el calendario de
recepción de los mismos, la construcción y el montaje, confección del manual de operación, entrenamiento
de los operadores, programación de las corridas experimentales, análisis de los datos, paradas para
mantenimientos rutinarios e imprevistos, repetición de experimentos críticos, confección de los informes,
operaciones de limpieza, etc. Ese programa no debe ser demasiado optimista y considerar los posibles
problemas que se pueden presentar.
El contar con un programa adecuado, aprobado por todos, evita que se someta la operación de la planta
piloto a presiones excesivas con relación al tiempo de ejecución de las tareas. Hay que tener en cuenta
además que realizar una operación piloto de forma precipitada puede traer como consecuencia que se
pasen por alto
detalles importantes, se pierdan datos, se afecte la calidad del producto, se pierda tiempo y se llegue a
afectar la moral del colectivo, además de comprometer incluso la seguridad de la operación.
En la definición de planta piloto se excluyó la precisión del factor de escalado, por ser éste un
elemento a precisar en la etapa de diseño de la misma. El factor de escalado debe satisfacer los
requerimientos de datos de diseño, los requerimientos de preparación de las muestras requeridas del
producto, las expectativas de la dirección y el buen sentido del ingeniero de proyecto.
Normalmente los cuatro factores se tienen en cuenta a la hora de definir el factor de escala que tendrá la
planta, aunque uno o dos de ellos sean más importantes que los demás. También hay un quinto factor
mucho más pragmático que puede resultar decisivo en muchos casos y es el tamaño del equipamiento
disponible.
Lo fundamental el lograr que la planta piloto sea suficientemente grande para que pueda servir de
indicador del costo y la calidad del trabajo requerido para la operación comercial del proceso (4, 33), para
que pueda hacer visibles aquellas perturbaciones que se pueden enmascarar en la escala pequeña como son
las exotermias moderadas, los cambios temporales en la viscosidad y fenómenos de cambios de fase y
también para prevenir problemas de manipulación de sólidos y lodos, especialmente en lo relacionado
con las tuberías de transferencia. A la vez, la planta debe ser razonablemente pequeña de manera de
poder minimizar las materias primas requeridas y los residuales producidos y, en algunos casos, los
inventarios en proceso.
También las limitaciones físicas pueden llegar a determinar el tamaño de una planta piloto. Por ejemplo,
puede ser importante que la operación se realice en un espacio dado, como puede ser una celda de prueba a
alta presión o que se necesite que la planta sea transportable para que pueda ser eventualmente trasladada al
lugar de la planta comercial (12, 15).
Finalmente hay que lograr que la planta piloto sea realmente escalable. No tiene sentido construir
una planta piloto tan pequeña que se puedan tener dudas acerca de la validez de los datos obtenidos para
el escalado de la planta de produccion. Hay que considerar también que muchos de los datos requeridos
para el diseño son obtenibles perfectamente en el banco y lo que se necesita es comprobarlos en equipos
más grandes. También hay datos que se pueden obtener solamente en los modelos a gran escala
(mockups), y por ello no es necesario tenerlos en cuenta en el diseño de la planta piloto.
En resumen, y sobre todo si el objetivo principal de la planta piloto es obtener datos de diseño, la
planta debe construirse de los equipos escalables más pequeños posibles, de forma que se minimice tanto
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 90/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
5.5.3 Seguridad.
Si bien en el laboratorio y en el banco se trabaja con incógnitas, en la planta piloto ocurre lo mismo, pero
en una escala mucho mayor, lo que incrementa considerablemente los riesgos. Peligros potenciales que en
el laboratorio y en el banco pueden ser pasados por alto u omitidos, pueden resultar desastrosos en la
operación a escala piloto. En estas operaciones se prueban nuevas tecnologías, se aplican nuevos
conocimientos químicos, se trabaja en áreas nuevas y por tanto se requiere de la mayor precaución para
garantizar una operación segura.
Independientemente de cuan simple o sofisticada sea una instalacion piloto, siempre se deben
hacer frente a peligros físicos y químicos potenciales en una escala nunca probada anteriormente, lo
que puede incluir sólidos pirofóricos, líquidos corrosivos, productos químicos tóxicos, reacciones
exotérmicas, mezclas explosivas, etc. (19, 25, 26). Además de esos riesgos, más apreciables y entendibles,
puede haber otros riesgos asociados con la operación propiamente dicha: instrucciones de operación
insuficientes, instrucciones mal interpretadas, uso de equipamiento impropio, zona de trabajo
abarrotada de obstáculos diversos. mal organizada y atendida y descuidos en general.
Por todo esto resulta de vital importancia establecer una adecuada política con relación a la seguridad y
desarrollar las reglas y regulaciones necesarias. También resulta decisivo que esas políticas sean
desarrolladas y que cada miembro del equipo, desde el jefe del proyecto hasta el operador o técnico de
turno, se adhiera a las mismas y mantenga una actitud orientada hacia la seguridad (6, 18, 27, 28).
Desgraciadamente, a pesar de la existencia de manuales de seguriad voluminosos, ocurren accidentes
evitables. Cuando esos accidentes se investigan, muchas veces se encuentra que sus causas y formas de
prevenirlos no estaban consideradas en dichos manuales. Muchos son debidos a errores humanos como
descuidos, desantenciones, omisiones, falta de comunicación e incluso simple desconocimiento de lo que
puede ocurrir (15).
Para reducir estos problemas, la seguridad debe tenerse en cuenta desde el mismo comienzo del
proyecto, en la etapa de laboratorio y de banco y debe ser uno de los aportes que los ingenieros hagan en los
equipos multidisciplinarios que deben organizarse desde esa temprana etapa (Capitulo l). La revisión
cuidadosa de los datos obtenidos en esas etapas, principalmente la cinética química y las características
térmicas diversas, tiene un peso fundamental en la previsión de los posibles riesgos de la etapa piloto.
Hay que tener en cuenta que cualquier derrame pequeño de líquido de un recipiente de vidrio,
provocado por un borboteo del líquido reaccionante, puede tener consecuencias desastrosas si ocurre en un
reactor enchaquetado de 20000 L. Por consiguiente se deben analizar cuidadosamente etapa por etapa,
detalle por detalle, todas las corridas experimentales realizadas, para estar seguro de poder detectar
cualquier situación que pueda generar un peligro en la escala piloto.
No se puede comenzar un programa de pruebas a escala piloto si no se ha realizado ese análisis
exhaustivo y la mejor vía para asegurar una transferencia adecuada de la información de las etapas de
laboratorio y banco a la etapa piloto, es mantener la participación activa durante todas esas etapas de
investigación, de al menos uno de los ingenieros que posteriormente trabajarán en la planta piloto. Ese
ingeniero deberá asegurar que se pueda obtener el tipo de información necesaria para garantizar la
seguridad y que todo el trabajo de laboratorio se realice desde el punto de vista de la seguridad ingenieril.
Este procedimiento se complementa con la participación de uno de los químicos del equipo de
investigación de laboratorio y banco en el grupo de trabajo de la etapa piloto, o mejor aún, con la
aplicación del principio de Ingenierización (Capítulo 1), conformando un equipo multidisciplinario
que participe en todas las etapas de I-D (laboratorio, banco, piloto, semi-industrial e industrial).
Como resultado de todos esos análisis previos y la experiencia acumulada se deben confeccionar un
conjunto de informaciones sobre factores de toxicidad, inflamabilidad, explosividad, requerimientos
especiales de manipulación, condiciones adversas de reacción (exotermias, formación de espumas,
desprendimiento de vapores, etc.), así como una relación razonablemente completa de propiedades físicas
y químicas, todos los cuales se deben anexar a las instrucciones de operación.
El trabajo de diseño de la planta piloto debe comenzar solamente cuando el equipo de ingenieros de
proyecto se sienta seguro de que se han tenido en cuenta y acopiado todos los datos provenientes del
trabajo de laboratorio y banco. Todo el trabajo relacionado con la seguridad debe ser realizado con la
participación del equipo de proyecto en su conjunto, aunque es un buen procedimiento de
trabajo responsabilizar especialmente a un miembro del equipo con la misión de centralizar todo lo
relacionado con este tema.
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 91/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
Este especialista debe asegurar que se tomen todas las consideraciones de seguridad en el
diseño, como son: selección adecuada de las dimensiones de las líneas de venteo y dispositivos de
seguridad, reducción al mínimo de los inventarios en proceso de las materias primas o productos peligrosos,
adecuada capacidad de enfriamiento y dispositivos para evacuación y/o enfriamiento rápido, para el caso
de incrementos bruscos del calor generado por las reacciones, sistemas adecuados de válvulas de cierre
rápido de circuitos, etc.
Debe recibir una atención especial la seguridad del personal durante la carga de las materias primas,
durante la toma de muestras y en el caso de salideros. Durante la fase de diseño deben considerarse
suficientes chequeos y balances que permitan probar que aún los aspectos más críticos del diseño son
seguros,
que los sistemas de control funcionarán adecuadamente y que los fallos mecánicos o errores humanos no
serán desastrosos.
5.6.1 Introducción
El trabajo debe ser organizado de forma tal que cuando se ha culminado el diseño de la planta
piloto, un gran número de personas de distintos departamentos se ha relacionado de una forma u otra con
el mismo. Los especialistas de mercadotecnia deben de haber proyectado las características que debe tener el
producto y
en que tiempo se necesita; el departamento de ventas solicitado las cantidades necesarias de
muestras y desarrollado especificaciones tentativas para el producto; los abogados especializados
en patentes iniciado los contactos con los miembros del equipo de investigadores y comenzado la
revisión de los libros de anotaciones para obtener los elementos que les permitan hacer las solicitudes
de patentes pertinentes; el departamento de producción designado un representente en el proyecto y la
dirección superior revisado el diseño de la planta piloto y aprobado la continuación de los trabajos, o
sea la construcción de la planta y el inicio de las corridas experimentales.
Además, antes que comience formalmente la construcción, se debe emitir un Permiso de Construcción,
para lo cual deben de estar de acuerdo tanto el jefe de la Planta Piloto como el miembro del colectivo
encargado de las tareas de Seguridad. Para garantizar que esto se ha cumplido adecuadamente resulta
muy conveniente utilizar un cuestionario, el cual debe servir para relacionar los peligros potenciales
considerados en el diseño y las posibilidades de funcionamiento incorrecto consideradas y evitadas con
métodos de diseño adcuados.
También debe emplearse este cuestionario para relacionar las facilidades auxiliares requeridas, las
descargas de efluentes, los materiales de construcción, etc, más una lista para chequear los equipos más
importantes desde el punto de vista de la seguridad y la protección del medio ambiente.
Durante la construcción debe de asignarse por lo menos a un miembro del equipo de dirección del
proyecto piloto, para que se responsabilice con chequear que la planta se construye realmente como ha
sido proyectada. Esto es especialmente importante cuando el trabajo de construcción de la planta piloto se
realiza por el propio personal que acomete el proyecto, en lugar de contratar a una firma especializada.
Eso significa que las comunicaciones son menos formales y existe por lo tanto mayores posibilidades de
interpretación inadecuada de las tareas, suposiciones incorrectas, sustituciones de equipos no autorizadas y
errores de construcción ocasionados por los deseos de acortar el trabajo, por lo cual hay que tener un
cuidado especial en esas situaciones.
Adicionalmente a eso, los chequeos de la seguridad futura de la instalación durante la construcción,
permiten poder confirmar que los instrumentos de alivio de presión se han instalado correctamente,
que se han empleado los materiales de construcción especificados y que los equipos de seguridad están
accesibles, que
el espacio de trabajo no está abarrotado y obstruído y que se haya previsto las rutas de escape del personal
(34).
Además, mientras se realiza la construccion de la planta piloto, se deben estar desarrollando en
paralelo dos actividades: la confección de los manuales de operación y el entrenamiento del personal de
operación. Las sesiones de entrenamiento del personal son magníficas oportunidades para revisar el
proceso en su conjunto y las reglas de seguridad de la planta piloto. Se deben chequear especialmente:
Procedimientos de emergencia (en casos de daños, accidentes, derrames o descargas accidentales,
falla de facilidades auxiliares, etc.).
La idoneidad del equipamiento de seguridad.
Los sistemas de protección contra incendios
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 92/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
Equipamiento de emergencia (duchas de seguridad, fuentes para lavado de los ojos, máscaras contra
gases y vapores, salidas de emergencia y sistemas energéticos de emergencia)
Peligros especiales (por ejemplo cuartos calientes, sistemas de refrigeración, etc.)
Disposición de residuales de forma segura y legal
Finalmente, después que la planta se ha construído y después que los manuales de operación están
escritos y los operadores están entrenados, pero antes de que se autorice el inicio de su
funcionamiento, se debe realizar la inspección previa a la operación, la cual es un chequeo final para
asegurar que, por ejemplo, todos los posicionadores de las válvulas están instalados correctamente, que
están disponibles las cartas de calibración para cada unidad, que las juntas están colocadas realmente
entre los platillos, que las conecciones a tierra y las uniones de seguridad están colocadas correctamente
y en todos los lugares necesarios, que se emplean en todos los casos los materiales adecuados de
construcción. Esto significa de hecho la realización de una Auditoría de Riesgos, igual a las que se
realizan antes de la puesta en marcha de una unidad comercial (31).
En los casos en que se tenga presencia de vapores tóxicos en el proceso, se deben realizar pruebas de
presión específicas para detectar salideros de gas, empleando un gas inocuo pero fácilmente detectable a la
presión normal de operación. Teniendo en cuenta que el olfato humano es un instrumento
extremadamente sensitivo, se puede considerar como excelente material trazador, una fragancia con un
bajo umbral de olor como el etil mercaptano. Después que se detecta la existencia de salideros, para
localizar los puntos en los cuales se producen, se puede emplear un detector de vapor electrónico o un
método clásico como la aplicación de solución jabonosa.
Con relación al peligro de los vapores tóxicos, no se puede pasar por alto lo relacionado con los puntos
de toma de muestras y en algunos casos se deben tomar precauciones extremas para evitar riesgos de
contaminación ambiental o daños a los operadores. En esos casos se debe tener cuidado también con la
seguridad del técnico de laboratorio que va a analizar la muestra y todos los métodos de manipulación y
vertimiento deben ser analizados cuidadosamente.
En el caso de las plantas piloto dedicadas o unipropósito, éstas deben ser construídas, de ser posible,
con los mismos materiales con que se construirá la planta final. Si en esa etapa del diseño hay todavía
dudas sobre los materiales que se deben emplear en algunas áreas críticas, es necesario considerar la
colocación de pruebas de corrosión de manera tal que se puedan evaluar adecuadamente los materiales
más adecuados.
Cuando la planta piloto es multipropósito, no son muy amplias las posibilidades de selección de los
materiales ya que los equipos son generalmente de acero inoxidable. de acero recubierto de vidrio o
totalmente de vidrio y por ello, en los casos en que se empleen productos químicos muy
corrosivos, se deben extremar las precauciones para evitar que se somete a los equipos a una corrosión
indebida.
Cuando se conoce que las características del proceso requiere de una aleación especial se debe tratar de
obtener el equipamiento piloto construído con dicho material o en su defecto deberá realizarse un
compromiso y utilizar la opción más próxima. Sin embargo, aunque en muchas ocasiones es
suficientemente amplia la selección de los materiales a emplear en los equipos de pequeña escala, en la
práctica en la mayoría de los casos la selección se realiza entre el vidrio, el acero recubierto con vidrio,
la cerámica, los recubrimientos de goma y los plásticos especiales.
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 93/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
tuberías altas para vacío. Cuando la altura disponible no alcanza para acomodar esas instalaciones, lo más
aconsejable es
situarlas afuera, ya que si se realizan cortes en el techo es muy difícil asegurar posteriormente el sellaje
del mismo y eso conlleva múltiples dificultades en la operación posterior.
En esos casos una variante aceptable puede ser construir en el interior, el reactor y las demás
instalaciones que no tengan dificultades con la altura del edificio y dejar la columna en la pared exterior,
colocando los condensadores en el techo. La instrumentación en todos los casos debe dejarse
preferentemente en una locación interior protegida contra las inclemencias del tiempo, no sólo para
proteger los instrumentos en sí, sino también para la protección del personal de operación y para asegurar
que los instrumentos sean atendidos adecuadamente, aún en condiciones de mal tiempo.
La flexibilidad es normalmente un asunto relacionado con el costo. Una pequeña unidad piloto
unipropósito, construída en un espacio muy reducido, conectada rígidamente por tuberías debe tener un
costo relativamente bajo, pero permite muy poca flexibilidad si las condiciones del proceso llegan a
cambiar significativamente.
Por otra parte, equipos instalados de forma espaciada, conectados por tuberías y accesorios
fácilmente desmontables, permitirán fácilmente cambios, adición de más equipos o variaciones en la
configuración de la planta, aunque debe resultar algo más caros que la variante menos flexible.
Lo mejor es considerar desde el inicio la posibilidad de que durante la realización del proyecto,
ocurran cambios considerables en el proceso y analizar si esa posibilidad es suficiente para pagar los
costos de una mayor flexibilidad del proceso o al menos para dejar posibilidades para esa flexibilidad. Con
esta decisión se debe considerar que más tarde o más temprano los equipos piloto deberán fequerir algun
tipo de ajuste, servicio o mantenimiento y por consiguiente es imprescincible diseñar considerando la
serviciabilidad, aunque los costos se incrementen ligeramente y con independencia de la flexibilidad que se
defina para la instalación. El ahorro que se realizará posteriormente a la hora de realizar esos trabajos, debe
compensar con creces el incremento que pueda representar en la construcción de la instalación.
Para lograr la accesibilidad de uma instalación piloto, hay un grupo de reglas básicas para el diseño y
la disposición de los equipos, que son muy similares a los de las plantas grandes, entre las que se destacan:
1. Mantener una distancia razonable entre los recipientes grandes y las distintas partes de los equipos
de manera tal que una persona pueda moverse alrededor de los mismos con facilidad. Esto incluye
las distancia a las paredes y la consideración de que los operarios de mantenimiento deben
acceder con sus herramientas a las áreas con problemas y trabajar sin restricciones ni dificultades.
2. Aislar las tuberías y superficies calientes, no sólo para la conservación del calor, sino también para la
protección del personal.
3. Mantener siempre que sea posible las bombas pequeñas y otras instalaciones menores que
requieran frecuentemente mantenimiento, fuera del contacto directo con el piso. Con eso se impide la
inundación de esos equipos cuando hay salideros o cuando se limpia el piso con mangueras.
4. Dejar partes del interior del edificio disponibles para el desmontaje y reparación de los equipos. Como
ejemplo se tiene el dejar suficiente espacio encima de los reactores para poder desmontar su tapa y el
espacio necesario para extraer los haces de tubos de los intercambiadores.
5. Incluir conecciones para el enjuague con agua de los equipos y para la limpieza de los conductos. Esto es
importante no sólo para eliminar tupiciones en secciones de tuberías y equipos sino que resulta
fundamental para poder asegurar la limpieza de las tuberías y equipos antes que el personal de
mantenimiento trabaje en los mismos. En muchos casos es suficiente con instalar conecciones tipo T en
las tuberías, colocar cruces en lugar de codos y crear facilidades para introducir, además de chorros
de agua u otras sustancias, cabillas u otros dispositivos que permitan eliminar obstrucciones..
6. Utilizar preferentemente el tipo de aislamiento de espuma que se produce in situ, en lugar del tipo
de aislamiento prefabricado en forma de tuberías, ya que es más barato eliminar el aislamiento
solamente en el segmento que se va a reparar y reponerlo luego con facilidad, que tener que
desmontar una porción considerable del mismo.
7. En los equipos metálicos se deben emplear tantos cristales para la observación como sea posible, ya
que de esa forma se puede tener una valoración de importantes características físicas de los fluidos
como el color y el contenido de sólidos, entre otros.
8. En sistemas con vacío, se deben incluir muchas válvulas de aislamiento y conecciones para
manómetors, de manera que se pueda simplificar la detección de salideros, al permitir chequear una
sección corta del sistema en cada prueba.
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 94/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
La selección debe hacerse entre la alimentación por gravedad y la realizada mediante el empleo de
equipamiento de potencia (bombas, compresores, etc.) y para ello tiene una gran importancia las
características de los fluidos que se deben alimentar, las cargas disponibles y la precisión que se requiera
para la medición de las corrientes de alimentacion al proceso.
Los líquidos limpios y de poca viscosidad se pueden suministrar fácilmente por gravedad y pueden ser
controlados de manera precisa mediante recipientes de carga constante. Además si los recipientes se
construyen de vidrio, se pueden realizar chequeos visuales de la alimentación. El control puede hacerse por
válvulas de agujas, si el líquido es realmente libre de sólidos.
Sin embargo, cuando las corrientes de alimentación son sucias, es decir, contienen sólidos o tienen una
alta viscosidad) o cuando se requiere un control de la proporción de múltiples corrientes de alimentación, es
preferible la alimentación por bombeo. Existe disponibilidad en el mercado de muchas bombas
pequeñas de desplazamiento positivo, útiles para su empleo en las plantas piloto, como son las bombas
de engranaje, de diafragma, de pistón y peristálticas, en muy variados tamaños y materiales de
construcción.
Si la alimentación es de sólidos, hay que pensar con mas cuidado. A pesar de que hay disponibles
válvulas rotatorios de pequeño tamaño, las mismas pueden no funcionar adecuadamente por
diferentes causas. También los alimentadores pequeños del tipo de tornillo sin fin tienden a tupirse
fácilmente y los alimentadores
vibratorios, si bien pueden trabajar bien, causan problemas cuando la alimentación sólida debe ser
introducida en un sistema cerrado o bajo presión.
Una buena solución pueden ser alimentar a través de una tolva, controlando la salida de la misma con
válvulas de doble mariposa controladas por tiempo, combinando ésto con un vibrador en la tolva para
mantener los sólidos en movimiento.
No obstante, si los sólidos son pegajosos, polvorientos, con tendencia a aglomerarse o
higroscópicos, la mejor solución problablemente es disolverlos o suspenderlos en un líquido
adecuado y alimentarlos por esa vía. Esta solución puede resultar especialmenmte adecuada en los
casos en que es posible la alimentación discontinua.
En algunos casos ocurre que un sistema de alimentación debe ser piloteado junto con el sistema de
reacción química y en ese caso lo mejor es consultar expertos en manipulación de materiales para
determinar primero la mejor opción práctica para la planta de gran escala y posteriormente realizar el
escalado descendente del
equipamiento de alimentación a emplear en la planta piloto. Ahora bien, si la metodología de alimentación
de las materias primas no es importante para el proceso, se debe buscar la vía de adicionar losmateriales al
proceso de la manera más conveniente que sea posible, con independenmcia de que no guarde la más
remota semejanza con el sistema de alimentación industrial, ya que no se debe dedicar esfuerzos en pilotear
lo que no es imprescindible, de forma tal que se pueda concentrar la atención en los aspectos
verdaderamente importantes.
Los sistemas continuos, por contraste, son más complejos para controlar y operar, pero las piezas
individuales del equipamiento son más pequeñas y el inventario en proceso es menor que en los procesos
discontinuos. Además, una particularidad interesante e imporante de una unidad continua, por lo menos
mientras está en estado estacionario, es la uniformidad de su producción, ya sea buena o mala.
Sin embargo, generalmente se necesitan reactores diseñados especialmente por encargo, la
instrumentación es más compleja y en los procesos sofisticados el sistema de control en su conjunto
llega a ser muy costoso. El muestreo de corrientes intermedias puede presentar problemas de accesibilidad
y representatividad y se hace necesario la instalación de algunos equipos duplicados (de reserva), para
poder evitar los riesgos de paradas por fallas en equipos.
En la práctica es con frecuencia necesario establecer un compromiso y considerar un proceso
con un sistema combinado continuo-discontinuo. Por ejemplo, el reactor principal trabaja en el modo
discontinuo y los productdos crudos son alimentados, a través de un almacenaje intermedio, en una cadena
de purificación continua, para lo cual resulta imprescindible calcular cuidadosamente la capacidad de
almacenaje intermedia.
Otra pregunta que normalmente debe hacerse es acerca de la forma en que se deben tratar las corrientes
de reciclo. ¿Deben ser estas corrientes sintetizadas o debe emplearse para las mismas material proveniente
realmente de esa parte del proceso? Además, en el caso de ser material proveniente del proceso, ¿debe
alimentarse de forma continua o discontinua?.
Las corrientes sintetizadas son ciertamente más fáciles de manipular, pero difíilmente representan
la situación real de operación a gran escala. lo que puede provocar que se lleguen a falsas conclusiones,
puesto que no hay posibilidades de evaluar lo que ocurre después de varios ciclos de recirculación. Por
ejemplo cómo y qué impurezas aparecen o desaparecen, cuál es la composición del estado
estacionario, etc..
En el caso que sea necesario evaluar factores tales como la conversión por paso (rendimiento), la
eficiencia por etapas, el efecto de las recirculaciones, los requerimientos de purgado y la composición en
estado estacionario, hay que tomar especial cuidado para utilizar las corrientes de alimentación reales en
las proporciones adecuadas y trabajar el proceso durante un tiempo lo suficientemente largo como para que
simule las condiciones reales de operación de la planta.
Es una buena regla reservar suficiente espacio para el almacenaje interior de los materiales necesarios
para una corrida de por lo menos un día. Por ello, considerando que algunas facilidades piloto no tienen
capacidad para almacenar o manipular grandes cantidades de tambores o paletas cargadas con sacos, el
tamaño requerido para los equipos se debe limitar de manera tal que se ajuste a dicha disponibilidad de
almacenaje.
Unido a los requerimientos de almacenaje de materia prima, está el problema de la disposición de los
materiales residuales. Las plantas piloto poroducen con frecuencia mayor cantidad de subproductdos y
producto fuera de especificaciones y por lo tanto inutilizable. que material comercializable, por lo cual se
deben
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 96/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
realizar los arreglos correspondientes para el empaque y laidentificación de los residuales, con vistas
a la disposición segura y legal de los mismos.
Entre los métodos de eliminación interna alternativos se tienen: Incineración (en un incinerador
registrado y aprobado legalmente), limpieza y recirculación o procesamiento ulterior para su
conversión en un producto comercial. En el caso de las corrientes de agua limpias tales como el agua de
enfriamiento que no se pone en contacto con el fluido, éstas pueden enviarse directamente a el alcantarillado
municipal, después de obtener las aprobaciones pertinentes por los organismos encargados de la
protección del medio ambiente.
La recolección de datos puede ir desde un examen visual periódico de los instrumentos y equipos hasta
el registro de los resultados en un sofisticado equipo automático para la recolección de datos.La
adquisición manual de los datos es la variante menos cara, siempre que se pueda garantizar que todos
los instrumentos y equipos sean revisados en los intevalos predeterminados, lo que es suficiente
generalmente para las reacciones no críticas. Sin embargo existen problemas, como son: las variaciones
cortas de las variables que se están midiendo tienen muchas probabilidades de no ser detectadas; se pueden
cometer errores de transcripción; está limitado el número de instrumentos que puede ser revisado y los
intervalos de tiempo entre lecturas es largo.
Muchas de esas deficiencias son eliminadas con el registro electrónico o mecánico. En
dependencia de la velocidad de respuesta, los eventos críticos serán registrados (aunque puede haber
aún una pérdida del tiempo en que eso ocurre, a menos que se haya instalado una alarma por contacto); los
datos obtenidos son más precisos que los registrados manualmente y, con exepción de los aspectos
relacionados con el costo, no hay límites para el número de registros que se pueda hacer.
Los problemas con los registradores son que los datos en las cartas pueden que no se lean
apropiadamente (especialmente cuando en una sola carta se registran múltiples puntos o líneas) y los
voluminosos registros de datos obtenidos es muy probable que no sean examinados en su totalidad. No
obstante lo anterior, una combinación cuidadosamente seleccionada de indicadores locales y montados en
la pizarra y registradores, es probablemente la instrumentación más efectiva desde el punto de vista del
costo, para las plantas piloto promedio.
Sin embargo en la actualidad, la disponibilidad de microcomputadoras ha hecho descender
considerablemente el costo de los recolectores de datos de alta velocidad. Todos los sensores pueden ser
"interrogados" en intervalos extremadamente breves, que pueden llegar a cientos de veces por segundo si se
desea.
Las ventajas de los instrumentos computarizados son:
1. Pueden realizar manipulaciones matemáticas de los datos e imprimir sólo los resultados, tales como la
diferenciación de la temperatura con respecto al tiempo para obtener los datos de rapidez; pueden
mantener registro de las desviaciones del punto de ajuste, o de condiciones fuera de tolerancias; las
condiciones de alarmas pueden ser programadas digitalmente; pueden ser ajustados para imprimir
solamente a intervalos de tiempo dados o cuando los datos hayan cambiado, o cuando ocurre una
condición de alarma o desviación.
2. Los datos impresos pueden ser mantenidos en un mínimo, ya que se registran solamente los
eventos y cambios. Desviaciones rápidas tan pequeñas como 1 ms pueden ser captadas y se pueden
determinar cualquier número de puntos de alarmas.
3. En dependencia del equipo de impresión y registro que se utilice, se pueden imprimir en rojo las
desviaciones de las condiciones normalizadas, para llamar la atención y se tiene la posibilidad de
seleccionar entre las stripcharts (para las salida gráfica cuando diferentes curvas con diferentes
escalas se deben imprimir en una carta única), o las impresoras de línea más caras, las cuales pueden
producir tanto salidas gráficas como digitales.
4. Una ventaja adicional de los recolectores de información computarizados es su habilidad para
controlar el proceso. Para ello la salida digital de la computadora se convierte en señales analógicas,
las cuales a su vez pueden operar relais o equipos similares para abrir o cerrar válvulas, arrancar o
parar motores y energizar serpentines de calentamiento, normalmente a través de rectificadores
controlados por silicón .
5. Cuando se acoplan con un reloj en tiempo real, los sistemas de ese tipo pueden realmente dirigir la
operación de una planta piloto de acuerdo con un progrma predeterminado y si algo anda mal, puede
guiarse por si mismo a una parada ordenada.
Este alto nivel de automatización, si bien es posible que no sea deseado durante las fases
experimentales primarias de una operación piloto, puede perfectamente ser utilizado por el personal
una vez que la planta piloto se ha estabilizado y se mantiene operando con el propósito de probar el
proceso o producir muestras de
producto.
La elección del tipo de instrumentación depende de la filosofía general asociada con la planta piloto.
Un proceso razonablemente directo, que debe ser operado solo por unas pocas semanas para confirmar
resultados de pequeña escala, probablemente no puede justificar un paquete de instrumentación caro y
complejo. Pero si el proceso a estudiar es muy complejo y existe la posibilidad de la ocurrencia de
exotermias súbitas, incrementos de presión o descontrol de la reacción, y si la planta piloto debe ser
operada por meses, entonces puede ser justificado el empleo de los sensores de alta velocidad y los controles
e incluso el uso de sistemas supresores de explosión.
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 98/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
i) Entrenamiento.
Una planta piloto requiere un personal alerta, entrenado para realizar la totalidad de las operaciones
requeridas y para ello es necesario someter a dicho personal a un entrenamiento muy similar al que se
somete normalmente al personal que operará la instalación a escala completa.
Entre los elementos que fundamentan esta necesidad está el hecho que en este tipo de plantas se trata
con una serie de incógnitas, a un nuevo nivel de escala. Además este personal deberá enfrentarse a la
recolección y procesamiento de una gran cantidad y diversidad de datos, desde las observaciones rutinarias
para la operación hasta las mediciones experimentales más cuidadosas y detalladas. Se trata así mismo de
ser capaz de lograr el ajuste fino del proceso, alcanzando la optimización de cada aspecto, desde las
condiciones de operación hasta el rendimiento químico y la pureza del producto.
Finalmente, el colectivo de la planta piloto debe ser capaz de combinar todos esos novedosos
conocimientos en los elementos decisivos para el diseño de un nuevo proceso a escala completa, factible
económicamente y práctico y resulta evidente que para ello todos los miembros del equipo deben conocer
exactamente lo que deben hacer y sus responsabilidades.
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 99/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
Para asegurar lo antes expuesto, durante el entrenamiento deberán contemplarse materias tales como
la química del proceso en estudio, la filosofía de diseño (objetivos, escala, duración, restricciones),
selección de equipamiento, racionalidad operacional, programas, organización de la operación, tareas
y responsabilidades individuales y evaluación de riesgos y seguridad.
El entrenamiento debe comenzar tan pronto se tenga organizado el equipo que operará la planta
piloto, debe consistir en conferencias, prácticas y sesiones de trabajo en equipo y debe abarcar todas
las secciones con que cuenta la instalación piloto. Si la construcción se encuentra en proceso durante ese
período, redsulta muy útil interrumpir periódicamente el proceso de entrenamiento para realizar breves
viajes de inspección al área de construcción.
En el caso de las plantas piloto grandes y especialmente cuando son del tipo unipropósito, la tarea
de rotular las líneas y válvulas constituye una excelente herramienta de entrenamiento, ya que esto
conlleva la revisión de los dibujos de tuberías, el seguimiento del trazado en el terreno y la
familiarización del personal con el equipamiento y su operación.
l tiempo dedicado al entrenamiento, en cada una de las materias mencionadas, dependerá
fundamentalmente de la complejidad de la planta y muy especialmente del nivel de experiencia del
colectivo a ser entrenado. Es evidente que un grupo relativamente nuevo requerirá un proceso de
entrenamiento mucho mayor, incluyendo los aspectos básicos de la operación de las plantas pilo, que un
colectivo experimentado en estas labores.
j) Manuales de operación.
La experiencia ha demostrado que resulta muy útil redactar los manuales de operación aún en el
caso de las plantas piloto pequeñas, ya que esto representa un número de ventajas entre las que se destaca
que el hecho de preparar el manual en si mismo es una excelente herramienta de entrenamiento, ya que
con ello se
fuerza a los redactores del manual a pensar cuidadosamente sobre cada etapa de las operaciones, o sea
del proceso de pruebas previas a la arrancada, de la puesta en marcha, de la operación y de las paradas,
normales y de emergencia.
También un manual de operación permite tener toda la información conocida, convenientemente
reunida, lo que incluye la química del proceso en estudio, la descripción del equipamiento, las
instrucciones de operación, los procedimientos de seguridad y emergencia, los datos de seguridad para
cada producto químico involucrado y los dibujos y esquemas. Esto lo hace un excelente libro de texto
durante todo el proceso de puesta en marcha y la operación de la planta piloto.
Finalmente, si se logra mantener su actualización concienzuda durante todo el desarrollo del
proyecto, el manual se convierte en un documento histórico muy útil, un registro permanente de lo que se ha
hecho, cómo y porqué.
La operación comienza, normalmente, con la circulación de agua o de algún otro solvente, lo que sirve
como un chequeo final y una indicación preliminar de que los operadores realmente conocen la forma de
operar el equipamiento. De esa forma se pueden limpiar también las escorias, residuos de materiales
aislantes y cualesquiera otros residuos que normalmente se acumulan en las tuberías y equipos durante el
proceso de construcción y montaje.
Posteriormente se introducen los productos químicos reales y lentamente, pero de forma segura, la
unidad se pone en marcha y se llega a la condición en la que se pueden comenzar a variar las condiciones
de operación, de acuerdo con el programa elaborado, para comenzar a acopiar los datos de interés y
estudiar el proceso, así como para comenzar a realizar las correciones que resulten pertinentes.
Durante este proceso debe mantenerse un control estricto, no solamente en lo relacionado con la
obtención de las condiciones óptimas, sino también con la verificación de que los datos obtenidos
sean ralmente reproducibles y útiles para el diseño. Es necesario evaluar también el rendimiento de llos
equipos y la existencia de salidseros, tupiciones o falta de control en alguna variable, de forma tal que
ningún aspecto de importancia sea ignorado o pasado por alto. Hay que recordar que variaciones
menores de la temperatura en un reactor piloto puede convertirse, en el caso de la instalación completa, en
un peligroso descontrol de la reacción.
Deben analizarse con sumo cuidado las razones de cada inconsistencia que se detecte y
estudiar las posibles consecuencias. De igual forma el resultado del proceso de puesta en marcha debe ser
sometido a un análisis intensivo y se deben realizar una serie de preguntas sobre alternativas y
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 100/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
posibilidades, de igual forma a como se hizo en las auditorías de seguridad de las etapas previas al diseño y
construcción de la planta piloto.
Si durante el desarrollo de las corridas previstas, se encuentra un grupo de dificultades muy superior a
lo previsto y no se logra la estabilidad deseada, lo más aconsejable es realizar una parada por uno o dos
días, para analizar con cuidado las dificultades encontradas y decidir los cambios que se necesitan en la
forma de operar la planta, de manera tal de proceder a poner nuevamente en marcha la planta, cuando se
este seguro de poder alcanzar los objetivos deseados en el plazo más breve posible, con la mayor
calidad y seguridad.
Una vez terminadas las corridas previstas, no termina en realidad el trabajo de la planta piloto. Primero es
necesario proceder a una parada bien ordenada y realizar posteriormente una limpieza cuidadosa de toda
la instalación, hasta alcanzar niveles seguros en el interior del sistema, que permnita el acceso al mismo
del
personal de mantenimiento.
Si la instalación es una planta multipropósito, la misma debe dejarse en iguales o mejores
condiciones que como se recibió y en condiciones de poder comenzar de inmediato con un nuevo proyecto.
Si la instalación es unipropósito, deberán realizarse de igual forma los trabajos de mantenimiento que sean
necesarios para que
la misma quede de reserva, lista para ser puesta en marcha si durante la etapa de diseño final de la
instalación a escala completa surgen problemas que así lo aconsejen.
También es posible que surja la necesidad de poner en marcha la planta piloto, si se presenten
dificultades durante el período de puesta en marcha de la isntalación comercial. Incluso es aconsejable
en ocasiones, trasladar la instalación piloto hacia el lugar donde se construye la planta a escala completa
para poder realizar corridas con corrientes reales de la planta grande.
Finalmente hay que tener en cuenta la importancia de la redacción del informe técnico final, el cual
debe cubrir todos los resultados del trabajo de la planta piloto y el hecho de que es muy difícil que esto
se haga después que el personal se haya dispersado y enviado hacia sus funciones originales. Por ello
deberá contemplarse el tiempo requerido para que los dirigentes del proyecto puedan completar dicho
informe, antes de que se de por terminado el proyecto piloto.
APENDICE
TERMINOLOGIA
La aplicación de la teoría de los modelos en las operaciones de Ingeniería Química hace necesario la introducción
de algunos términos técnicos nuevos y la importación de otros, los cuales pueden resultar no familiares para los
ingenieros químicos. Aunque esos términos se han ido explicando según aparecen por primera vez en el texto, resulta
conveniente que se relacionen en orden alfabético y se presenten nuevamente sus significados.
Coeficiente de temperatura de 10 C: Rapidez de un proceso a una temperatura dada dividido por su rapidez a una
temperatura 10 C menor. En sentido estricto las temperaturas deben ser 25 y 15 C y si los coeficientes son evaluados
a temperaturas mayores deben ser corregidos por la ecuación de Arrehnius
Componentes correspondientes: Aquellos componentes de sistemas que reaccionan químicamente, con respecto a los
cuales se establece la semejanza.
Constantes dimensionales: Cualquier constante en una ecuación física que cambia de valor cuando se cambian
las unidades de medidas.
Control por acción de la masa: Control de la rapidez de una reacción química provocada por la acción de
las masas como ocurre en un sistema homólogo.
Ecuación adimensional generalizada. Una ecuación en la cual se relacionan grupos adimensionales mediante
una función no especificada.
Ecuaciones de escala: Ecuaciones adimensionales simplificadas que especifican las condiciones de semejanza y las
relaciones de las variables correspondientes en términos de relaciones de escala, para un tipo dado de sistemas
homólogos.
Ecuación potencial: Una ecuación en la cual la rapidez se iguala a la diferencia de potencial dividido por una
resistencia. Las ecuaciones potenciales compuestas pueden ser de forma serie o paralelo, en dependencia de si
las diversas resistencias están en serie o en paralelo.
Elemento: Réplica de tamaño completo de una o más células o componentes de un aparato prototipo.
Experimentos con modelos: Un experimento con modelos, a diferencia de una prueba de planta piloto,
significa un experimento que emplea un modelo de un prototipo a gran escala ya existente.
Extrapolación: La extrapolación, en su aplicación a los experimentos con modelos y las plantas piloto, es la
extensión de las relaciones de semejanza a sistemas en los cuales las
condiciones no son estrictamente semejantes y se basa en suposiciones empíricas de relaciones de potencias
entre las variables.
Fuerzas correspondientes: Las fuerzas que actúan sobre partículas correspondientes en tiempos correspondientes.
Homogeneidad dimensional: La condición de una ecuación física en la cual todos los términos tienen la misma
dimensión.
Mockup: Modelo estructural a escala completa, construído de forma precisa, con propósito de estudios, prueba o
demostración.
Modelo: Una réplica semejante geométricamente de un aparato más grande denominado el prototipo, en el cual, a
menos que se señale lo contrario, se asume que la relación de escalas sea la misma a lo largo de los tres ejes (Ver
modelo distorsionado).
Modelo análogo: Aparato experimental mediante el cual se predice el comportamiento de un sistema prototipo, a
través de la observación de variables de clase diferente a la del prototipo, pero que obedecen a una misma ecuación
diferencial.Modelo de agua: Un modelo en el cual se simula con agua el flujo de aire o gas en el prototipo.
Modelo de rebanada (slice) Un elemento modelo derivado de un modelo completo, mediante la intersección
del mismo con dos planos paralelos en la dirección del flujo. Modelo distorsionado: Un modelo que tiene diferentes
relaciones de escala a lo largo de ejes diferentes. Existen también elementos modelos distorsionados
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 102/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
Operaciones críticas: Operaciones que forman parte de un proceso a escala piloto para las cuales el trabajo de la
planta piloto resulta imprescindible, para poder obtener los datos de diseño
para la planta industrial.
Patrones de flujo: Forma geométrtica de las líneas de flujo de un sistema de flujo de fluídos.
Planta piloto: Cualquier planta a escala pequeña, utilizada para suministrar información anticipada acerca de una
futura planta a gran escala (Ver experimento con modelo).
Prototipo: Es el aparato a gran escala con el cual se relaciona geométricamente un modelo o un elemento, con
independencia del hecho de que el aparato a gran escala exista antes o después del modelo. En otras palabras, cada
modelo se considera relacionado con un rango de prototipos, ya sean reales o hipotéticos y viceversa .
Régimen: La naturaleza del proceso que determina la variación global de la rapidez de un sistema .
Régimen dinámico. Condición en la cual el proceso que determina la rapidez global es la dinámica física del sistema.
En los sistemas fluidos esta condición es el patrón de flujo.
Régimen mixto. Condición en la cual la razón de cambio global es influenciada por dos procesos, que tienen
criterios de semejanza incompatibles.
Régimen químico: Condición en la cual la rapidez global determinante de un proceso, es una velocidad de
reacción química
Régimen térmico: Condición en la cual la rapidez global de cambio con respecto al tiempo determinante del proceso
es la rapidez de la transferencia de calor.
Relacion de sección: La relación de las áreas de las secciones transversales correspondientes en el prototipo y en el
modelo, con la misma convención que las relaciones de escala lineal y de tiempo y por consiguiente con valores
siempre por encima de la unidad. El símbolo utilizado para la relación de sección es B .
Relación de tiempos de residencia: La relación del tiempo de residencia medio al mínimo o de la velocidad
máxima a la media, en un recipiente a través del cual hay un flujo continuo.
Semejanza: La condición de dos o más sistemas enlos cuales hay una relación constante entre las cantidades
correspondientes. La semejanza puede ser geométrica, mecánica, térmica o química, de acuerdo con las propiedades
con respecto a las cuales los sistemas son semejantes. Cada uno de esos grados de semejanza incluye los anteriores.
La semejanza mecánica se se subdivide a su vez en estática, cinemática y dinámica. Otras clases de semejanza
como la eléctrica, están fuera del alcance de este libro.
Semejanza cinemática: Condición de sistemas semejantes geométricamente en los cuales las partículas
correspondientes decriben trayectorias semejantes geométricamente en intervalos de tiempos correspondientes
Semejanza empírica: Condición de sistemas semejantes geométricamente en los cuales las condiciones en
el modelo se ajustan empíricamente para producir el grado deseado de de semejanza en el prototipo. En ese
caso se asume que cualquier cambio en la geometría del modelo producir un cambio semejante al que provoca un
cambio correspondiente en la geometría del prototipo.
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 103/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
Semejanza geométrica: La condición de dos cuerpos o espacios en los cuales para cada punto de uno existe un
punto correspondiente en el otro
Semejanza mecánica: Término genérico que engloba las semejanzas estática, cinemática y dinámica.
Símbolos: Hay dos convenciones generales acerca de las cantidades correspondientes que se deben señalar::
1-En las relaciones de cantidades correspondientes, el símbolo con apóstrofe siempre se refiere al prototipo.
2-Las relaciones de cantidades correpondientes se denotan con caracteres en negrita, en los cuales se considera
siempre que la cantidad referida al prototipo está en el numerador de la
relación. Por ejemplo, v = v'/v es la relación de la velocidad en el prototipo (v') con la velocidad correspondiente
en el modelo (v).
Sistemas homólogos: Sistemas en los cuales son semejantes geométricamente la forma de los miembros sólidos
correspondientes o de los envolventes sólidos que encierran las masas de fluido y son idénticas la composición
química y las propiedades físicas en puntos correspondientes, al menos en el rango en que ellos afectan el proceso en
estudio.
Superficie de control: Control de la rapidez de una reacción química por la rapidez de la tansferencia de calor o
masa através de una superficie o interfase, como ocurre en muchas reacciones heterogéneas.
Técnica de "polvo y pegamento" (sticky-dust technique): Método cualitativo de observar el flujo de aire
sobre superficies modelos, basado en cubrir las superficies con un material pegajoso e inyectar un polvo ligero en la
corriente de aire para observar la distribución del polvo sobre la superficie, la cual varía de acuerdo con la
distribución de la velocidad del aire en el conducto.
Tiempo de residencia promedio: En un recipiente de flujo continuo, el tiempo de residencia promedio se toma
como el volumen del fluido en el recipiente dividido por la rapidez voolumétrica de flujo.
Velocidad reducida: La velocidad del fluido real, dividida por la velocidad crítica inferior, en el mismo sistema a
la misma temperatura y presión.
BIBLIOGRAFÍA
BIBLIOGRAFÍA DEl CAPÍTULO 1
1- Brizuelas, E., "Aspectos Fundamentales del Diseño de Plantas Industriales ", Tomo II, Capítulo 9,
708-746, Editorial ISPJAE, La Habana, 1987.
2- ICIDCA, "La Ingenierización de los Procesos Químicos y Biológicos", documento presentado
al polo científico del Oeste La Habana, Mayo de 1992.
3- Jonstone, R.E., Thring, M. E., "Pilot Plants, Models and Scale-up Methods in Chemical
Engineering", Mc.Graw-Hill Books C., New York, 1957.
4- Kazatkin, A.G., "Operaciones Básicas y Aparatos en la Tecnología Química", Tomo I, Editorial
"Jimia", Moscú, 1981.
5- Luyben, W.L., "Process Modeling, Simulation and Control for Chemical Engineering", 160-165
,Mc. Graw Hill Book Kogabusha, Ltd., Tokyo, 1973.
6- Mc. Adams, W.H., "Transmisión de Calor", Capítulo 5, 133-146, Editorial Ciencia y Técnica, La
Habana, 1970.
7- Mc. Cabe, W.L., Smith, I.C., "Operaciones Básicas de la Ingeniería Química, Volumen I, 16-21,
Edición Revolucionaria, La Habana, 1986.
8- Perry, R.E., Green, D., "Perry's Chemical Engineer's Handbook", 6ta Edición, Volumen I,
páginas 2-113 - 2-116, 421-424 y 561-563, Edición Revolucionaria, La Habana, 1989.
9- Ravinovich, E.A., "Hidráulica", Capítulo 8, 298 - 310 ,Editorial MIR, Moscú, 1987.
10- Rosabal, J., "Teoría de Los Modelos en Ingeniería de Procesos", Editorial Oriente, Santiago de
Cuba, 1988.
11- Rosabal, J., Garcell, L., "Hidrodinámica y Separaciones Mecánicas", Tomo I, pagína 55, Editorial
Pueblo y Educación, La Habana, 1990.
12- Stein, F.P., AIchE Journal, 33(12), 1986-1992, (1987)
13- Trambouze, P., "Chemical Engineering Processing", 86(2), 23- 31, (1990).
14- Viera, R., López, S., Levy, M.N., "Modelación Matematica para Ingenieros Químicos ", Editorial
Pueblo y Educación, La Habana, 1988.
15- Viera, R., Soler, S., "Diseño y análisis de Reactores Químicos", Tomo I, Editorial ENPES, La
Habana, 1991.
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 105/106
28/3/2018 PRINCIPIOS BÁSICOS DE ESCALADO
16- Von Stockar, U., Marison, W., "The use of Colorimetry in Biotechnology", en "Advances in
Biochemical Engineering and Biotechnology ", Vol 40, Editor A. Fletcher, Spring Verlag, Berlin,
Heidelberg, 1989.
17- Walas , S.M., "Cinética de las Reacciones Químicas", Capitulo 11, 314-326, Editorial Pueblo y
Educación, La Habana, 1979.
18- Wetty, J. R., Wilson, R.E., Wicks, E.E., "Fundamentals of Momentum, Heat and Mass Transfer",
Capitulo 11, 143-153, Wiley International Editions, Jonh Wiley and Sons, Inc., New York, 1965.
http://monografias.umcc.cu/monos/2001/MONOGRAFIA10.htm 106/106