Está en la página 1de 254

La Modelización en

Matemática: marco de
referencia y aplicaciones
Marcel David Pochulu (coordinador)

Universidad
Nacional
Villa María GIDED
La modelización en Matemática : marco de referencia y aplicaciones / Marcel David
Pochulu ... [et al.] ; compilado por Marcel David Pochulu. - 1a ed . – Villa María:
GIDED, 2018.
Libro digital, PDF

Archivo Digital: descarga y online


ISBN 978-987-42-7317-8

1. Matemática. 2. Educación Científica. 3. Metodología. I. Pochulu, Marcel David II.


Pochulu, Marcel David, comp.
CDD 507

Referatos de esta edición:


Mgter. Mario Di Blasi (Universidad Tecnológica Nacional – Facultad Regional Pacheco)
Mgter. Ana María Ruiz (Universidad Nacional de San Juan)
La Modelización en Matemática: marco de
referencia y aplicaciones

Marcel David Pochulu


Índice

PRÓLOGO .......................................................................................................................................................... 13

MODELIZACIÓN Y RESOLUCIÓN DE PROBLEMAS ...................................................................................... 17


1.1. Introducción .............................................................................................................................17
1.2. Sobre Resolución de Problemas .............................................................................................17
1.3. Sobre Modelización Matemática .............................................................................................20
1.3.1. Modelización Matemática de situaciones intra y extra matemáticas ............................... 20
1.3.2. Modelización Matemática de situaciones extra-matemáticas ......................................... 21
1.3.3. Vínculo entre Resolución de Problemas y Modelización Matemática. Consideraciones
para la enseñanza..................................................................................................................... 22
1.4. Reflexiones finales ..................................................................................................................25
1.5. Referencias bibliográficas .......................................................................................................25

PRODUCCIÓN DE MIEL EN UNA COLMENA DESPUÉS DE UNA ENJAMBRAZÓN .................................... 27


2.1. Introducción .............................................................................................................................27
2.2. Contextualización de la situación problema ............................................................................28
2.2.1. Sobre abejas ................................................................................................................... 28
2.2.2. Sobre las colmenas......................................................................................................... 30
2.2.3. Sobre la actividad del hombre: la apicultura ................................................................... 31
2.2.4. Sobre las enjambrazones................................................................................................ 32
2.3. Aproximaciones matemáticas al problema ..............................................................................33
2.4. Interpretación de resultados del problema ..............................................................................39
2.5. Referencias bibliográficas .......................................................................................................39

PATRÓN DE CORTE EN CUBIERTAS DE CHAPAS PARA LA SALIDA DE CAÑOS Y TUBERÍAS ............. 41


3.1. Introducción .............................................................................................................................41
3.2. Contextualización de la situación problema ............................................................................43
3.3. Aproximaciones matemáticas al problema ..............................................................................44
3.4. Perspectivas de trabajo matemático con el problema .............................................................55
3.5. Referencias bibliográficas .......................................................................................................55

BENEFICIOS ECONÓMICOS Y EFICIENCIA DE CONVERSIÓN EN LA CRÍA DE PORCINOS..................... 57


4.1. Introducción .............................................................................................................................57
4.2. Contextualización de la situación problema ............................................................................58
4.2.1. El mercado mundial de carnes ........................................................................................ 58
4.2.2. Eficiencia de conversión ................................................................................................. 59

7
4.3. Aproximaciones matemáticas al problema ..............................................................................61
4.4. Nuevos problemas a partir del problema inicial .......................................................................68
4.5. Referencias bibliográficas .......................................................................................................69

RENTABILIDAD EN LA PRODUCCIÓN DE POLLOS PARRILLEROS ........................................................... 71


5.1. Introducción .............................................................................................................................71
5.2. Contextualización de la situación problema ............................................................................72
5.2.1. La genética y el crecimiento de los pollos ....................................................................... 72
5.2.2. Razas y líneas de pollos de engorde .............................................................................. 73
5.3. Aproximaciones matemáticas al problema ..............................................................................74
5.4. Perspectivas de trabajo matemático con el problema .............................................................81
5.5. Referencias bibliográficas .......................................................................................................83

OPTIMIZACIÓN DEL DISEÑO DE EMPAQUES DE CARTÓN DEL TIPO TETRA BRIK ................................. 85
6.1. Introducción .............................................................................................................................85
6.2. Contextualización de la situación problema ............................................................................87
6.2.1. La historia de una idea .................................................................................................... 87
6.2.2. La numeración en los envases de Tetra Pak .................................................................. 88
6.3. Aproximaciones matemáticas al problema ..............................................................................89
6.3.1. Optimización del diseño del envase utilizando la misma cantidad de material ............... 89
6.3.2. Optimización del diseño de dos envases que tienen la misma capacidad...................... 94
6.5. Perspectivas de trabajo matemático con el problema .............................................................95
6.4. Referencias bibliográficas .......................................................................................................96

FILOTAXIS Y PATRONES EN LA NATURALEZA ............................................................................................ 97


7.1. Introducción .............................................................................................................................97
7.2. Contextualización de la situación problema ............................................................................99
7.2.1. Entre las hojas aquellos divertidos conejos .................................................................... 99
7.2.2. Una relación de recurrencia .......................................................................................... 101
7.2.3. El todo es a la parte como la parte al resto ................................................................... 101
7.3. Aproximaciones matemáticas al problema ............................................................................ 104
7.3.1. Patrones en frutos y flores ............................................................................................ 104
7.3.2. Patrones en hojas ......................................................................................................... 106
7.4. Algunas consideraciones y libertades en el aula ................................................................... 111
7.5. Referencias bibliográficas ..................................................................................................... 111

DEMOECOLOGÍA Y PROGRAMAS DE ERRADICACIÓN DE LA MOSCA DEL MEDITERRÁNEO............. 113


8.1. Introducción ........................................................................................................................... 113
8.2. Contextualización de la situación problema .......................................................................... 114

8
8.2.1. Ciclo de vida de la Ceratitis capitata ............................................................................. 114
8.2.2. Programas de erradicación de la Ceratitis capitata ....................................................... 117
8.3. Aproximaciones matemáticas al problema ............................................................................ 117
8.4. Perspectivas de trabajo matemático con el problema ........................................................... 122
8.5. Referencias bibliográficas ..................................................................................................... 122

CALENTAMIENTO GLOBAL Y CAMBIO CLIMÁTICO EN LAS CIUDADES ................................................. 123


9.1. Introducción ........................................................................................................................... 123
9.2. Contextualización de la situación problema .......................................................................... 125
9.2.1. Estudios científicos del clima ........................................................................................ 125
9.2.2. Los modelos climáticos y sus limitaciones .................................................................... 126
9.3. Aproximaciones matemáticas al problema ............................................................................ 127
9.4. Perspectivas de trabajo matemático con el problema ........................................................... 132
9.5. Referencias bibliográficas ..................................................................................................... 132

PARÁMETROS CINÉTICOS PARA LA INACTIVACIÓN DE MICROORGANISMOS EN CONSERVAS


CASERAS ......................................................................................................................................................... 133
10.1. Introducción ......................................................................................................................... 133
10.2. Contextualización de la situación problema ........................................................................ 135
10.2.1. La esterilización en las conservas............................................................................... 135
10.2.2. Las bacterias en las conservas ................................................................................... 136
10.3. Aproximaciones matemáticas al problema .......................................................................... 137
10.4. Perspectivas de trabajo matemático con el problema ......................................................... 147
10.5. Referencias bibliográficas ................................................................................................... 148

ESTIMACIÓN DEL PODER GERMINATIVO DE UN LOTE DE SEMILLAS ................................................... 149


11.1. Introducción ......................................................................................................................... 149
11.2. Contextualización de la situación problema ........................................................................ 150
11.2.1. Análisis de semillas ..................................................................................................... 150
11.2.2. Cómo anticipar el Poder Germinativo de un lote de semillas ...................................... 151
11.3. Aproximaciones matemáticas al problema .......................................................................... 151
11.3.1. La simulación como instrumento de modelización estadística .................................... 152
11.3.2. Teoría estadística utilizada para la resolución del problema....................................... 156
11.3.2. La resolución del problema planteado ........................................................................ 159
11.4. Perspectivas de trabajo matemático con el problema ......................................................... 162
11.5. Referencias bibliográficas ................................................................................................... 162

CRECIMIENTO POBLACIONAL O DEMOGRÁFICO...................................................................................... 163


12.1. Introducción ......................................................................................................................... 163

9
12.2. Contextualización de la situación problema ........................................................................ 165
12.3. Aproximaciones matemáticas el problema .......................................................................... 165
12.4. Perspectivas de trabajo matemático con el problema ......................................................... 172
12.5. Referencias bibliográficas ................................................................................................... 173

RENDIMIENTO DE GENOTIPOS DE MAÍZ EN RESPUESTA A ARREGLOS TOPOLÓGICOS ................... 175


13.1. Introducción ......................................................................................................................... 175
13.2 Contextualización de la situación problema ......................................................................... 177
13.3. Aproximaciones matemáticas al problema .......................................................................... 178
13.4. Perspectivas de trabajo matemático con el problema ......................................................... 182
13.5. Referencias bibliográficas ................................................................................................... 183

CRECIMIENTO COMPENSATORIO EN VAQUILLONAS ABERDEEN ANGUS............................................ 185


14.1. Introducción ......................................................................................................................... 185
14.2. Contextualización de la situación problema ........................................................................ 188
14.3. Aproximaciones matemáticas al problema .......................................................................... 188
14.4. Perspectivas de trabajo matemático con el problema ......................................................... 193
14.5. Referencias bibliográficas ................................................................................................... 193

DEGRADACIÓN DE LAS AGUAS RESIDUALES MEDIANTE PROCESOS BIOLÓGICOS.......................... 195


15.1. Introducción ......................................................................................................................... 195
15.2. Contextualización de la situación problema ........................................................................ 196
15.2.1. La toxicidad y contaminación de las aguas residuales ............................................... 196
15.2.2. Bacterias, Bacilos y Bacillus........................................................................................ 197
15.3. Aproximaciones matemáticas al problema .......................................................................... 199
15.3.1. La velocidad de degradación media de un efluente inoculado con Bacillus ............... 205
15.4. Perspectivas de trabajo matemático con el problema ......................................................... 210
15.5. Referencias bibliográficas ................................................................................................... 213

MAPAS DE COBERTURA DE WIFI ................................................................................................................. 215


16.1. Introducción ......................................................................................................................... 215
16.2. Contextualización de la situación problema ........................................................................ 216
16.3. Aproximaciones matemáticas al problema .......................................................................... 217
16.4. Perspectivas de trabajo matemático con el problema ......................................................... 224
16.5. Referencias bibliográficas ................................................................................................... 224

ESTIMACIÓN DE LA RAPIDEZ MÁXIMA ALCANZADA EN RUTA POR VEHÍCULOS ................................ 225


17.1. Introducción ......................................................................................................................... 225
17.2. Contextualización de la situación problema ........................................................................ 227

10
17.3. Aproximaciones matemáticas al problema .......................................................................... 228
17.4. Perspectivas de trabajo matemático con el problema ......................................................... 236
17.5 Referencias bibliográficas .................................................................................................... 237

INTENSIDAD DEL ENTRENAMIENTO FÍSICO Y ESTIMACIÓN DEL UMBRAL ANAERÓBICO ................. 239
18.1. Introducción ......................................................................................................................... 239
18.2. Contextualización de la situación problema ........................................................................ 241
18.3. Aproximaciones matemáticas al problema .......................................................................... 242
18.4. Perspectivas de trabajo matemático con el problema ......................................................... 243
18.5. Referencias bibliográficas ................................................................................................... 244

DISTRIBUCIÓN, LOGÍSTICA Y ENTREGA DE PRODUCTOS Y MERCADERÍA .......................................... 245


19.1. Introducción ......................................................................................................................... 245
19.2. Contextualización de la situación problema ........................................................................ 246
19.3. Aproximaciones matemáticas al problema .......................................................................... 247
19.4. Perspectivas de trabajo matemático con el problema ......................................................... 252
19.5. Referencias bibliográficas ................................................................................................... 253

11
Prólogo

Prólogo
La enseñanza de la matemática plantea grandes desafíos para quienes tienen que enseñarla en los distintos
niveles educativos. En tiempos pasados era suficiente mostrar algunas técnicas y algoritmos relevantes y
aplicarlos en problemas de una realidad falseada o manipulada para ese fin. Alsina (2007, p.85) expresa
categóricamente que “gran parte del tiempo dedicado a la enseñanza de la matemática se dedica a la
resolución de ejercicios rutinarios alejados de la vida cotidiana”. Además, Chavarría y Hidalgo (2009, p. 140)
sostienen que “nos olvidamos de llevar a nuestras aulas sencillas discusiones que permitan al estudiante
valorar el esfuerzo que le demandó a la humanidad llegar a los resultados matemáticos a los cuales tenemos
acceso con tanta facilidad”.
Los retos presentados por las diversas ciencias o disciplinas llegan hoy a la clase de matemática convertidos
en problemas que plantean la necesidad de un abordaje interdisciplinario. Esto nos lleva a cambiar el modo
de pensar y actuar en la clase, y mucho más importante aún, lograr que los estudiantes logren tener una
educación diferente y acorde a las demandas actuales. No podemos seguir siendo profesores del siglo XIX
enseñando una matemática del siglo XVII a estudiantes del siglo XXI.
Muchos de los problemas actuales requieren ser abordados en una clase involucrando contenidos que
suelen escapar a los que habitualmente trabajamos en la clase de matemática. Sabemos que estas
situaciones ponen a los profesores en la posición incómoda e inusual de no saber contenidos de otras
disciplinas, o incluso de la propia matemática cuando se requiere que sea aplicada. Al mismo tiempo hay que
pensar que nos encontramos en una comunidad de aprendizaje donde el profesor es un coordinador de los
procesos de enseñanza y aprendizaje, y no quien tiene todas las respuestas. Es necesario desterrar la idea
de que el estudiante tiene que contar con todos los conocimientos matemáticos para abordar un problema, o
que usará solamente métodos y algoritmos tradicionales enseñados en la escuela. Tampoco podemos
ignorar la presencia de la tecnología que media la resolución de cualquier tipo de problema, y más aún, si
pretendemos un enfoque unificado de la enseñanza de la matemática.
Podemos ver que a lo largo de la historia existió una estrecha interrelación entre la matemática y las demás
disciplinas, las que deben ser retomadas en las clases actuales a través de la interdisciplinariedad y la
modelización como estrategia pedagógica. Además, ciencias como la biología, fisiología, medicina,
agronomía, entre otras, demandan nuevas herramientas matemáticas que permitan un manejo más ágil de
los datos experimentales. Esto supone la existencia de un grupo de disciplinas relacionadas entre sí y con
vínculos previamente establecidos, donde se tiene que evitar el desarrollo de acciones aisladas, dispersas o
segmentadas. De alguna manera, estamos ante una subordinación de las áreas del conocimiento a la
percepción y comprensión del mundo.
Pero, ¿es posible llegar a la interdisciplina sin pasar por la disciplina? Andonegui (2004) plantea que la visión
interdisciplinaria requiere que no se devalúe ni se mutile ningún conocimiento disciplinar, puesto que todos
son necesarios, y al mismo tiempo, que no se levanten muros entre las distintas ciencias dado que ninguna
de ellas es más relevante que las demás.
No obstante, la interdisciplinariedad no debe visualizarse como el proceso de utilizar a una disciplina como
herramienta de la otra. Si bien es cierto que la matemática tiene el papel de herramienta en muchas otras
ciencias para la resolución de problemas, no puede ser concebido este proceso como interdisciplinariedad.
Chavarría e Hidalgo (2009) sostienen que ignorar o despreciar las interrelaciones entre las ciencias, incluida
actualmente la tecnología, alimenta una polémica estéril que se transfiere de forma inevitable al ámbito
escolar.
A su vez, es necesario que el cuerpo de profesores sea reflexivo ante las necesidades que tienen las
disciplinas y las herramientas que brinda la matemática. Por ejemplo, si analizamos lo que acontece con
problemas del mundo real pertenecientes a otras ciencias, advertimos que en general, parten de datos
experimentales. Con ellos se buscan modelos matemáticos para describir las relaciones entre las variables y
así poder pronosticar, predecir, estimar o anticipar comportamientos en el corto y mediano plazo.
Eventualmente se presentan gráficas que muestran la relación entre las variables y en este caso, los nuevos
recursos suelen ser un buen aliado. Estas temáticas sin dudas se encuentran insertas en la matemática, pero
¿se abordan en una clase habitual dentro de una carrera no matemática o de formación general?

13
Veamos lo que ocurre en una clase de matemática de la actualidad. Para abordar la problemática anterior el
profesor suele partir de un modelo funcional previamente establecido y se preocupa por hacer y mostrar un
análisis minucioso del comportamiento de la función, prescindiendo incluso de nuevas tecnologías. El estudio
conlleva a determinar en forma algebraica, y con tediosos cálculos, máximos y mínimos locales, raíces,
asíntotas, concavidad y convexidad de la curva, paridad, entre muchos otros objetos matemáticos.
Posteriormente procede a realizar un gráfico aproximado de la función y a mano alzada. ¿Esto era lo que
requería el campo profesional? Definitivamente no, pues no era la preocupación central de una disciplina no
matemática hacer un gráfico de una función, la cual no se tiene en la mayoría de los casos o, si se tiene, se
realiza fácilmente con un software. En consecuencia, existe un divorcio entre lo que requieren las diferentes
ciencias y lo que está aportando actualmente la matemática.
Es necesario pensar en un enfoque diferente, donde se trabajen problemas reales del campo profesional en
el que se inserta la matemática, y aquí la modelización adquiere un rol protagónico. ¿Significa que no
tenemos que pasar por la disciplina o debemos prescindir de contenidos centrales de la matemática? No,
pues podemos trabajar lo disciplinar desde la misma interdisciplinariedad, pero sí tenemos que revisar lo que
estamos enseñando y la metodología empleada, como así también, incorporar temas que se requieren
actualmente desde las demás disciplinas y suprimir otros que quedaron obsoletos.
Ante esta situación, presentamos el material incorporando un marco de referencia sobre la Modelización
Matemática como estrategia pedagógica, su vínculo con la resolución de problemas y algunas
consideraciones para la enseñanza. A continuación, desarrollamos múltiples propuestas para el aula,
pensadas en diversos contextos extramatemáticos.
Para cada propuesta el foco está puesto en que los estudiantes aprendan algo matemático, los ayude a tener
pensamientos interdisciplinarios al resolver problemas complejos de la realidad y se puedan descubrir
vínculos que unen los fenómenos aparentemente inconexos entre distintas ciencias o disciplinas. Pensamos
que a través de la interdisciplinariedad se logran crear ambientes reales y actuales de estudio, con
situaciones que pueden ser significativas para el alumno.
Cada consigna de trabajo propuesta escapa de los estándares que estamos acostumbrados para los
problemas de matemática y a propósito se enuncian de manera ambigua, sin incluir demasiados datos, ni los
pasos a seguir o la manera en que debería hacerse la actividad. Entendemos que estas características hacen
que se enmarquen en lo que llamaríamos problemas no rutinarios, en tanto la información que se suministra
o bien es insuficiente o hay datos que sobran, no existe un único camino para abordarlos, se ponen en juego
distintas estrategias de resolución, pueden existir varias soluciones o bien no tener solución alguna. A su vez,
están diseñados para conjeturar y plantear hipótesis en un ambiente donde los nuevos recursos o TIC tienen
un rol protagónico y el estudiante es el que encara la resolución.
La conjetura la entendemos como una proposición que tendrá que formular el estudiante y se prevé
verdadera, pero que está pendiente de ser sometida a examen (aceptación o rechazo). Si la conjetura es
aceptada, debe conducir a procesos de argumentación y validación matemáticos apropiados. Consideramos
valioso que cada consigna pueda admitir diferentes posibilidades de exploración y argumentación porque le
permitirá al estudiante tomar decisiones, organizar sus intentos o modos para abordar la resolución, recurrir a
heurísticas o utilizar distintas habilidades generales matemáticas, reflexionar sobre sus intentos para
sostenerlos o descartarlos, establecer una manera de explicar el porqué de la respuesta y validar las
conjeturas que emergen del proceso. Todo este proceso se asimila al trabajo del matemático y legitima el tipo
de actividad que se espera realicen los estudiantes cuando aprenden matemática.
De todos modos, sabemos que no es suficiente contar con una consigna que tenga un alto potencial
matemático y desafíe cognitivamente a los estudiantes. Es necesario que se modifique sustancialmente el rol
del profesor en la gestión de la clase. Para ello, sería oportuno que el profesor gestione la resolución de cada
situación problema teniendo en cuenta los criterios que establecen Barreiro, Leonian, Marino, Pochulu y
Rodríguez (2017):
- Ante los cuestionamientos de los alumnos, evitar dar más información que la estrictamente
puesta en juego en la pregunta/respuesta del estudiante,
- Intervenir desde la lógica que siguió el estudiante y no desde la que el docente tiene pensada la
resolución experta del problema,

14
Prólogo

- Estimular en el estudiante el desarrollo de estrategias de autocontrol y validación del


conocimiento matemático,
- Evitar realizar intervenciones solamente cuando lo que el estudiante hizo está mal,
- Pedir explicaciones incluso cuando la respuesta dada por el estudiante sea correcta.
Tal como mencionamos, este modo de gestionar la clase tiene por propósito alentar los procesos de
argumentación y que los estudiantes puedan conjeturar, demostrar y validar. A su vez, se busca que sea el
estudiante quien llegue al conocimiento a través de sus propias conclusiones y no por medio de un
conocimiento aprendido, buscando trascender las clases tradicionales de matemática donde el protagonismo
lo tiene el profesor a través de clases magistrales.
En cuanto a las TIC, las entendemos como un recurso más de la clase y no el foco de la actividad. No se
trata de destinar una clase entera para trabajar con comandos específicos de un software, sino más bien,
integrar las TIC para permitir la creación de una nueva matemática y el surgimiento de una nueva cultura de
aprendizaje. Esto nos lleva a cambiar el modo de pensar y actuar en la gestión de la clase, y mucho más
importante aún, a conseguir que los estudiantes hagan cosas nuevas en matemática, logrando tener una
educación diferente o mejor gracias a la tecnología.
Muchas de las propuestas involucran contenidos que suelen escapar a los que habitualmente trabajamos en
la clase de matemática. Sabemos que estas situaciones ponen a los profesores en la posición incómoda e
inusual de no saber contenidos de otras disciplinas, o incluso de la propia matemática. Al mismo tiempo hay
que pensar que nos encontramos en una comunidad de aprendizaje donde el profesor pasa a ser un
coordinador de los procesos de enseñanza y aprendizaje, y no quien tiene todas las respuestas. Es
necesario desterrar la idea de que el estudiante debe contar con todos los conocimientos matemáticos para
abordar un problema, o que usará solamente métodos de cálculo trabajados en la escuela o en la clase de
matemática. En este sentido, el INFD (2010, p. 123) nos expresa que:
La búsqueda de resultados exactos a problemas matemáticos hace tiempo que se mostró
insuficiente. La realidad que se pretende explicar se describe con modelos que,
mayoritariamente, se resuelven por métodos numéricos computacionales que ofrecen soluciones
aproximadas y cuya precisión, generalmente, se puede controlar. Sin embargo, esta dualidad
epistémica no llega a las aulas, en las cuales prevalece la búsqueda de soluciones exactas.
En consecuencia, por tratarse de situaciones problemáticas definidas en contextos reales se requerirá de
modelos aproximados para describir esa realidad, los cuales se pueden construir al mismo tiempo que se
transita por la resolución.
Para las propuestas relatamos una sección que denominamos “contextualización de la situación problema”,
donde introducimos los principales tópicos no matemáticos que la enmarcan. Entendemos que un estudiante
debería acceder a estos contenidos buscando información al respecto, lo que implica hacer una selección de
las variables adecuadas, la relevancia de las mismas, la exactitud de los datos y la confiabilidad de las
fuentes. Si todos los datos son suministrados con el problema, se coarta la formación de estudiantes con
pensamiento crítico para la búsqueda de información. Tampoco es lógico pensar que el trabajo de búsqueda
de información sea tarea exclusiva del alumno. Lograr que los estudiantes encuentren información adecuada
en la maraña de la web no es un trabajo menor para los profesores, pues Internet no puede ser considerado
solo como un sitio de consulta.
Por otra parte, cada propuesta es abordada independiente de las otras. No obstante, al relatar su desarrollo o
resolución experta, describimos una sola vez la estrategia o heurística empleada. Por ejemplo, si en una
situación problema debemos ajustar diferentes modelos funcionales para decidir cuál es el más apropiado, lo
hacemos exhaustivamente la primera vez que utilizamos la estrategia. En las siguientes propuestas, nos
limitamos a indicar el mejor ajuste, asumiendo que se tiene interiorizada la estrategia.
Consideramos firmemente que existen otras formas de trabajar y hacer matemática en el aula, además de la
tradicional en la que nos formamos la mayoría de los profesores. Incorporar la modelización matemática en la
enseñanza nos aproxima a los campos profesionales de las carreras y no se descuidan los contenidos de
matemática, que suelen ser una preocupación central de los profesores. Es necesario que nos involucremos
en los conocimientos y lógica de otros campos disciplinares, fundamentalmente cuando impartimos clases en
carreras no matemáticas o brindamos una formación matemática general.

15
Para finalizar, esperamos que este material sea útil e inspirador para todos aquellos profesores que buscan
trascender las clases habituales de matemática y puedan brindar a los estudiantes otras alternativas de
enseñanza y aprendizaje que logren mejorar las vivencias por las que atraviesan en su formación.
Referencias bibliográficas
Andonegui, M. (2004). Interdisciplinariedad y educación matemática en las dos primeras etapas de la
educación básica. Educere 8(26), 301-308.
Alsina, C. (2007). Si Enrique VIII tuvo 6 esposas ¿cuántas tuvo Enrique IV? El realismo en Educación
Matemática y sus implicaciones docentes. Revista Iberoamericana de Educación, 43, 85-101.
Barreiro, P.; Leonian, P.; Marino, T.; Pochulu, M. y Rodríguez, M. (2017). Perspectivas metodológicas en la
enseñanza y en la investigación en Educación Matemática. Los Polvorines, Argentina: Ediciones
UNGS.
Chavarría, J. e Hidalgo, R. (2009). La historia e interdisciplinariedad en la Educación Matemática: Una
experiencia con profesores de secundaria. Cuaderno de Investigación y Formación en Educación
Matemática, 4(5), 139-154.
INFD (2010). Proyecto de mejora para la formación inicial de profesores para el nivel secundario. Área:
Matemática. Buenos Aires, Argentina: Ministerio de Educación, Instituto Nacional de Formación
Docente y Secretaría de Políticas Universitarias.

16
1. Modelización y resolución de problemas

1
Modelización y resolución de problemas

Mabel Rodríguez y Patricia Barreiro


1.1. Introducción
Modelización y resolución de problemas son términos que algunas veces son utilizados de un modo casi
indistinto, dejando entrever que podrían tener el mismo significado y sin reparar en distinciones entre ellos.
En este capítulo intentamos precisar cada uno de estos conceptos indicando, sin pretensión de
exhaustividad, distintas concepciones y usos de ellos que se encuentran actualmente en el campo de la
Educación Matemática. Presentamos vinculaciones entre ambos conceptos y mencionamos en líneas
generales algunas consideraciones para la enseñanza cuando se contempla incluir la Modelización
Matemática en el aula.
1.2. Sobre Resolución de Problemas
En este apartado nos proponemos presentar formas diferentes de utilizar la expresión “Resolución de
Problemas” que se encuentran en textos referidos a enseñanza de la matemática, intentando aclarar el
significado en cada uno de los casos. Por un lado, con la expresión Resolución de Problemas se denomina
una línea teórica de Educación Matemática y, por otro, también se usa para referirse a una metodología de
trabajo en el aula la cual, a su vez, contempla distintas perspectivas. Damos una descripción breve de cada
caso y referenciamos a autores que trabajan en ellos.
Entre las distintas líneas teóricas actuales de Educación Matemática se encuentra la Resolución de
Problemas (RP), Problem Solving o Escuela Anglosajona. Denominaciones que denotan el mismo enfoque
que, a su vez visto desde la Didáctica General, puede enmarcarse en una teoría más amplia, aplicable a
otras ciencias, denominada Aprendizaje Basado en Problemas (ABP). Como en todo marco teórico, en esta
escuela se definen conceptos, se establece cómo se concibe la enseñanza, el aprendizaje y cómo es la

17
Mabel Rodríguez y Patricia Barreiro

mirada sobre la matemática a ser enseñada. Es una teoría constructivista, como todas las que tienen
desarrollos e investigaciones en la actualidad. Pueden atribuírsele sus inicios al matemático húngaro George
Polya, quien en 1945 publicó el texto How to solve it, a raíz del cual se comenzó a pensar en que circunscribir
la enseñanza de la matemática únicamente a conceptos matemáticos no sería suficiente si no se lograba que
los estudiantes dispusieran de herramientas y estrategias para resolver problemas matemáticos.
En la actualidad, en la Resolución de Problemas como línea teórica de la Educación Matemática se propone
como foco favorecer el desarrollo de estrategias en los estudiantes de modo que se conviertan en buenos
resolutores de problemas. Muchos investigadores (Schoenfeld, 1985, 1992; González, 1998; Campistrous,
1996; Borasi, 1986, Krulik & Rudnick, 1987; Lesh & Harel, 2003, entre otros) han dedicado esfuerzos a definir
o caracterizar el concepto de problema, estrategias heurísticas o heurísticas y metacognición entendiendo
que son clave y que sientan las bases de esta teoría. Asimismo se estudian cuestiones actitudinales y
emocionales referidas a las experiencias de los estudiantes como resolutores de problemas (González,
2012). Precisar el concepto de problema es en extremo delicado y no hay acuerdos generalizados en la
comunidad académica. Se cuenta con numerosas definiciones, las que comparten: que el hecho de “ser
problema” es una cuestión relativa al sujeto que resuelve, que hay un cierto estado inicial y una meta por
lograr y, central en esta escuela, que la actividad le provoque al resolutor un bloqueo inicial. Esto último
significa que a una primera lectura, el resolutor no sabe exactamente cuál es el camino que debe seguir para
resolver. Es debido a esa incertidumbre que el sujeto se enfrenta a un desconcierto que lo invita a explorar
distintas estrategias para acercarse a la resolución. Estas estrategias, no necesariamente válidas desde el
punto de vista matemático, ni necesariamente exitosas para la resolución, son las llamadas heurísticas. Sin
embargo, si uno piensa en cómo es el trabajo del matemático cuando está ante una conjetura o problema
abierto, veríamos que se asimila a este proceso de búsqueda incierto, exploratorio, no deductivo. De este
modo, si proponemos a los estudiantes actividades que le generen este tipo de bloqueo, estaríamos
asimilando las tareas de aula con la tarea del matemático en un sentido cualitativamente cercano aunque en
contenidos fuese, por supuesto, cuantitativamente distante. De aquí el valor de este enfoque que le da un
lugar a ese tipo de estrategias en la clase de matemática, intentando que los estudiantes las incorporen,
reflexionen sobre ellas, más allá del éxito que alcancen o no en la resolución y con los contenidos
matemáticos que hayan sido necesario considerar en la actividad. Esto último significa que, al ponerse el
foco en las estrategias de resolución de problemas, el contenido matemático en el sentido usual (contenidos
conceptuales en la vieja denominación) no se selecciona en primera instancia. Las clases no son planificadas
en torno a qué contenidos conceptuales se deben trabajar en ellas, sino a qué problemas matemáticos se
abordarán, qué heurísticas se podrán poner en juego, cómo se reflexionará sobre el proceso vivido, sobre la
eficacia o no de las estrategias, sobre su posible uso en otros problemas donde se requieran otros
contenidos, etc. En Pochulu y Rodríguez (2012) puede verse una presentación general sobre la Resolución
de Problemas como línea de la Educación Matemática actual con precisiones para la clase (gestión por parte
del docente, planificación, evaluación, etc.).
Otros autores, en cambio, han centrado su interés en analizar distintas funcionalidades de la resolución de
problemas en la clase de matemática ya no como una teoría didáctica sino como metodología de trabajo en
el aula, advirtiendo que se encuentran distintas concepciones sobre la finalidad que se persigue en cada
caso. En este capítulo pondremos con mayúsculas la frase “Resolución de Problemas” (RP) cuando nos
refiramos a la escuela de Didáctica de la Matemática y en minúsculas, al hacer referencia a la metodología
elegida por el docente para el trabajo en el aula, que a continuación detallamos.
Comencemos por caracterizar metodologías clásicas o tradicionales de enseñanza de la matemática. En
ellas el docente sigue, aproximadamente, estas etapas:
- presenta un contenido matemático (concepto, procedimiento o resultado)
- propone ejemplos (los resuelve o muestra su uso en el caso de procedimientos, por ejemplo)
- propone ejercicios similares a los ejemplos para que resuelvan los estudiantes siguiendo pautas que
él explicó
- propone algún “problema” de aplicación de lo trabajado
Las comillas en este último renglón están puestas para distinguir este tipo de tareas (que el docente
tradicional llamará problema), de lo que mencionamos como concepto central en la RP, como teoría.

18
1. Modelización y resolución de problemas

En esta caracterización, las actividades están pensadas por el docente como de aplicación de lo ya
aprendido y, por ello, tiene sentido de que aparezcan en ese lugar de la clase.
Con otra intención, un docente que sigue una metodología tradicional podría desarrollar otro esquema de
trabajo, por ejemplo:
- propone un problema a los estudiantes y discute sobre el valor de poder resolverlo (aquí, ya sin las
comillas, el problema podría ser concebido como en la escuela de RP), y muestra que no cuentan
con las herramientas matemáticas para poder hacerlo.
- señala la necesidad de estudiar las herramientas matemáticas enfatizando en que serán útiles para
resolver el problema
- enseña las herramientas matemáticas (de un modo clásico: define, ejemplifica, etc.)
- con esas herramientas desarrolladas, el docente resuelve el problema inicial
- ofrece actividades similares para aplicar los conocimientos matemáticos adquiridos
En este caso, la presencia del problema está al inicio de la clase pero cumple únicamente una función de
motivación. Los estudiantes no experimentan por sí mismos el bloqueo ni la necesidad de aprender nuevas
herramientas, ni uso de diversas estrategias, simplemente siguen el discurso del profesor.
Hasta aquí estamos advertidos de dos cuestiones:
a) Podría haber “problemas” en una clase de matemática, el docente podría expresar que “trabaja con
resolución de problemas”, pero el significado que él le asigna a esa frase distaría del enfoque que
expusimos al inicio de este capítulo.
b) Que una clase comience con un “problema” no es garantía de que el docente ponga el foco en que sus
estudiantes se conviertan en buenos resolutores de problemas.
Estos dos ejemplos recién mencionados no son los únicos posibles. Bajo otra concepción constructivista de
la enseñanza y el aprendizaje de la matemática, podría pensarse en la presencia en la clase de ciertas
actividades que el docente también podría llamar “problemas”. Veamos algunos ejemplos y analicemos si lo
serían desde la Resolución de Problemas y qué rol podrían cumplir en la clase y para los estudiantes, en
estos casos.
Si nos situamos en otro enfoque teórico de Educación Matemática, como lo es la Teoría de Situaciones
Didácticas (TSD) gestada por el matemático francés Guy Brousseau (1993), encontramos que el término
situación a-didáctica, que es específico y propio de la TSD, tiene una definición diferente de la noción de
problema en la RP. Sin embargo, en la literatura se observa que, queriendo referirse a situaciones a-
didácticas, muchas veces se lo hace con el término “problema”. En este caso, si analizamos el significado de
las situaciones a-didácticas, podemos decir que deben darse varias condiciones para estar ante tal situación:
- hay un saber matemático que es el que resuelve esa situación de un modo óptimo
- ese saber es próximo a lo que los estudiantes conocen y manejan de modo que podrán construirlo a
propósito de la resolución de la actividad, aunque por supuesto desconozcan cómo se denomina,
cuál es su notación, para qué resulta útil, etc. (se dice que emerge el saber)
- el docente prioriza el saber que emergerá en el momento en el que diseña la situación a-didáctica
- un análisis previo a la implementación debería indicar que los alumnos podrán transitar por
momentos donde aborden la situación, la exploren, experimenten, luego establezcan una conjetura
que puedan defender, explicando las razones de su validez, en el ámbito social de sus pares y
docente (una simplificación de lo que en TSD se denominan etapas de acción, formulación y
validación)
- los estudiantes deben abordar la resolución de dicha situación en grupo
- el docente puede/debe intervenir durante la resolución pero con una restricción: sus intervenciones
no deben evidenciar el saber que debe emerger (la a-didacticidad tiene este sentido)
Una clase bajo este modelo seguiría, a grandes rasgos, estos lineamientos:

19
Mabel Rodríguez y Patricia Barreiro

- el docente plantea la situación a-didáctica a los alumnos y les da indicaciones del modo de trabajo
- asiste a los grupos, contemplando no perder la a-didacticidad
- gestiona una puesta en común de algún tipo recuperando lo trabajado en los grupos
- en algún momento (podría ser luego de la resolución de otras situaciones a-didácticas),
institucionaliza el saber (ver Brousseau, 1993; Panizza, 2005 o el capítulo 1 de Pochulu y Rodríguez
2012)
- asigna otras tareas, sean éstas a-didácticas o no.
Como puede verse, el término situación a-didáctica se diferencia de la noción de problemas mencionada
antes, en particular por el saber que emerge en la primera de ellas. Asimismo, en la clase de matemática
puede verse a los estudiantes trabajando con una situación y confundirse con que es un problema, según
RP. No quiere decir esto que los conceptos no puedan vincularse. A modo de ejemplo, en la etapa de acción
es altamente probable que, si la situación generó un bloqueo, el estudiante utilice heurísticas. Lo central es
entender que se persiguen distintas finalidades.
Esta línea de Educación Matemática, la TSD, tiene como fuerte requerimiento que sea factible diseñar
situaciones a-didácticas que permitan que los saberes emerjan. Este condicionante hace que, para la
enseñanza de la matemática a nivel superior, no sea siempre apropiada su elección debido a que podría ser
imposible generar situaciones con tales características. Sin embargo, se podrían incluir y contemplar rasgos
de la teoría en clases de Matemática Superior, como por ejemplo las cuestiones relativas a la validación
matemática y a la exploración y establecimiento de conjeturas.
Podríamos seguir analizando bajo otros marcos teóricos el término “problema” y qué otras interpretaciones es
factible que tenga. Sin embargo nos interesa en primer lugar alertar al lector sobre esta problemática: la
diversidad de usos que este término podría tener y cómo dentro de un enfoque se naturaliza su uso. Esto
podría generar confusión en el lector cuando éste no tiene claro desde qué perspectiva se utiliza el término y
con qué significado. En segundo lugar, queremos vincular el concepto de modelización con la resolución de
problemas como metodología de trabajo en el aula y con la RP como línea teórica. Presentamos el concepto
de modelización matemática y luego nos dedicamos a establecer esos vínculos en la siguiente sección.
1.3. Sobre Modelización Matemática
1.3.1. Modelización Matemática de situaciones intra y extra matemáticas
Distintos enfoques sobre la Modelización Matemática (MM) se encuentran, hoy en día, en la literatura
especializada. En este primer apartado, nos interesa dar un marco que encuadre la tarea de modelización
desde una perspectiva lo más amplia posible.
En ese sentido, consideramos que el enfoque que propone la Teoría Antropológica de lo Didáctico (TAD)
resulta pertinente y abarcativo. Nos permitirá, asimismo, puntualizar en lo que será el objeto de este texto,
hacia el final del capítulo.
Como describe Barquero (2009), la TAD toma como un problema de investigación en Didáctica de la
Matemática el estudio del papel de la modelización en la enseñanza de la matemática como caso particular
de su planteo más general, que establece el interés de construir modelos epistemológicos de la actividad
matemática institucional, la cual es, por lo tanto, apreciada como su objeto primario de investigación. Para
dar una respuesta consideran dos dimensiones: la epistemológica y la ecológica. La primera de ellas conlleva
especificar a qué nos referimos con MM y cómo se relaciona con la Matemática. La dimensión ecológica, en
cambio, contempla dar precisiones sobre condiciones que deberían atenderse para que el estudio de la
modelización matemática pueda llevarse a cabo en las instituciones escolares.
Muchas posiciones actuales sobre la MM comienzan al considerar sistemas o situaciones extra-matemáticas
que se deben estudiar. Es decir, situaciones “reales” que provienen de entornos donde la matemática no
tiene una presencia explícita (problemáticas de las Ciencias Naturales o Sociales, por ejemplo), pero se
apela a ella como herramienta para comprender dicha situación, estudiarla a través de una formulación
matemática (el modelo matemático), interpretar resultados obtenidos a partir del modelo en el sistema inicial
y, eventualmente, plantear nuevos problemas independientes de la situación de origen estableciendo una

20
1. Modelización y resolución de problemas

recursividad que origina nuevos modelos y procesos de MM. En muchos casos, la MM queda únicamente
vinculada a este tipo de situaciones extra-matemáticas. En Barquero (2009) se amplía esta idea. En
particular, esto se hace bajo la mirada teórica propia de la TAD y con la finalidad de especificar y esclarecer
el vínculo entre la MM y la actividad matemática. La posición que adopta Barquero contempla dos aspectos
sobre la MM que usualmente no se consideran en el campo de la Educación Matemática. El primero de ellos
es asumir que la modelización intra-matemática es parte de la modelización matemática. El segundo es que
la MM es considerada como un instrumento que permite articular la actividad matemática escolar. Nos
centramos aquí en detallar el primero de los aspectos, pues es un enfoque unificador que cambia la
perspectiva desde la cual la MM puede ser entendida y que es inclusora respecto de las otras posiciones
actuales. Barquero (2009) afirma:
Proponemos pues una forma de interpretar la modelización matemática que incluye de manera
esencial la modelización matemática de sistemas matemáticos, esto es, aquellos procesos que
se llevan a cabo para responder a cuestiones problemáticas que surgen en un sistema
matemático (como, por ejemplo, un sistema aritmético, geométrico o topológico) y cuya
resolución requiere la construcción de un modelo matemático (que puede ser algebraico,
analítico o de cualquier otro tipo) y un trabajo en dicho modelo. (p.54)
Desde esta perspectiva entonces, por un lado, se considera que la modelización puede iniciarse con
cuestionamientos tanto intra como extra-matemáticos; pero, por otro lado, se resalta que cada vez que se
parte de una situación extra-matemática, en dicho proceso se realizará indefectiblemente una modelización
intra-matemática debido a la matematización progresiva que se irá dando gradualmente.
Este modo de concebir la MM, incluyendo partir de sistemas matemáticos para modelizarlos, ha permitido a
investigadores de la TAD caracterizar equiparando el hacer matemática con modelizar. Es así que cualquier
actividad matemática se concibe que se origina con alguna pregunta (que puede ser extra o intra-
matemática) o cuestionamiento que motoriza la búsqueda de respuestas, para lo cual se construyen
modelos. En este proceso surgen otras preguntas, es posible que deba construirse teoría nueva para
abordarlas, y se percibe una situación cíclica que conlleva reestructurar y relacionar con otros desarrollos
matemáticos.
1.3.2. Modelización Matemática de situaciones extra-matemáticas
Como hemos mencionado, muchos de los trabajos de investigación referidos a MM encontrados en la
bibliografía académica se refieren a la MM de situaciones que aparecen en contextos extra-matemáticos.
Entre algunos investigadores que han referido el tema, se encuentra Bassanezi (2002), quien sostiene que la
modelización en matemática ha sido utilizada por los matemáticos aplicados y especialistas como un proceso
dinámico para entender comportamientos provenientes de las ciencias experimentales, en busca de modelos
matemáticos que permitan la comprensión de tales situaciones reales.
Estos autores que trabajan a partir de contextos extra-matemáticos tienen, a su vez, sus propias
interpretaciones sobre qué entienden por MM, dan sus acepciones y trabajan coherentemente con ellas,
abriendo aún más el espectro de lo que la MM incluye en el campo de la Educación Matemática. Por ejemplo,
Cristante, Esteley, Marguet, y Mina (2004, p. 308), sostienen que “La modelización matemática consiste en el
arte de transformar problemas de la realidad en problemas matemáticos y resolverlos interpretando sus
soluciones en un lenguaje del mundo real”.
En lo que sigue de esta sección, cuando nos refiramos a MM lo haremos circunscribiéndonos a que se parte
de un planteo extra-matemático.
Autores que trabajan desde esta mirada, reconocen a la Modelización como un proceso donde se identifican
diferentes etapas, que no necesariamente se llevan a cabo de manera lineal. Dependiendo de la bibliografía
utilizada podemos encontrar que dichas etapas detallan en forma más exhaustiva el proceso de
modelización, como por ejemplo Falsetti y Rodríguez (2005), mientras que otros autores como Posada y Villa
(2005) lo describen en forma más global. Sin embargo, todas estas descripciones comparten ciertos rasgos
en común que describen, con más o menos complejidad, en qué consiste el proceso de modelización.
Esquemáticamente partimos de una situación problemática que se quiere estudiar, tenemos fenómenos
observables sobre los cuales nos hacemos ciertas preguntas. Esto nos lleva a querer comprender dicho
fenómeno para lo cual la matemática podría ser útil, aunque no sabemos en un principio si disponemos de

21
Mabel Rodríguez y Patricia Barreiro

herramientas matemáticas para abordarlo o deberemos construirlas. Para esto reconocemos la situación, la
recortamos, la simplificamos, intentamos identificar las variables que intervienen y tomamos decisiones sobre
cuáles de ellas consideraremos, tratando de inferir o postular relaciones entre ellas. A partir de aquí
estaríamos en condiciones de construir el llamado modelo matemático. En él expresamos matemáticamente
las relaciones entre las variables, ya sea encontrando, proponiendo, adaptando o creando teoría y
herramientas matemáticas. De este modo, el modelo permite estudiar la situación aunque haya sido
condicionada por nuestras decisiones.
El modelo matemático debería permitir entender lo que se quiere estudiar de la situación inicial,
eventualmente dar una explicación del fenómeno, es decir, comprenderlo mejor, anticipar posibles
alteraciones y predecir su evolución bajo las condiciones creadas para el mismo. Asimismo la modelización
suele generar nuevas preguntas y planteos, retomando la estructura cíclica mencionada anteriormente.
Un esquema que retoma las etapas de la modelización poniendo énfasis en elementos comunes a distintos
investigadores es el que sigue (ver Figura 1). Las etapas 1, 2 y 3, no necesariamente seguidas linealmente,
cierran un ciclo, pero a su vez son potencialmente generadoras de la etapa 4, la que podría abrir otro ciclo de
modelización matemática.

Figura 1: Esquema del proceso de Modelización Matemática


1.3.3. Vínculo entre Resolución de Problemas y Modelización Matemática. Consideraciones
para la enseñanza
Como se advierte a partir de la forma de concebir la MM en su amplia acepción, este tipo de trabajo
alrededor de situaciones tanto sean extra como intra-matemáticas siempre, para quien modeliza, se convierte
en una tarea de resolución de problemas en el sentido de la Escuela Anglosajona. Es decir que la necesidad
de ahondar en cuestionamientos que no se conocen y requieren del diseño de un modelo sin dudas genera
un bloqueo en el sujeto, lo obliga a tomar decisiones, utilizar heurísticas, trazar un plan, llevarlo a cabo y
proponer así un modelo matemático, estudiarlo, analizar su pertinencia y plantearse nuevos problemas. Esto
describe un típico proceso de resolución de problemas.

22
1. Modelización y resolución de problemas

Sin embargo, tal como se advierte en Barquero (2009), al pensar en la enseñanza de la MM, el cuidado del
proceso de transposición didáctica es clave. Tal es así que ante situaciones extra-matemáticas que no son
simples de transponer, podrían surgir en la clase
rasgos de algoritmización de la modelización que se manifiestan en la tendencia a cerrar las
actividades de modelización convirtiéndolas en “resolución de problemas aplicados”
relativamente aislados puesto que no suelen dar origen al estudio de un verdadero campo de
problemas si estos problemas no están previamente “nombrados” en el saber sabio. (p.59)
Es interesante considerar que al menos hay tres posibles formas en las que un docente podría concebir la MM:
a) como aplicación rutinaria de modelos ya establecidos
En este caso las actividades presentadas no serían problema para los estudiantes, en el sentido de la RP.
b) el docente muestra y explica cómo se realiza la construcción de modelos y cómo se utilizan
En este caso, el estudiante puede estar en un rol pasivo y la clase ser de tipo expositiva. De ser así, el
estudiante no está enfrentado a resolver las actividades y, por lo tanto, no son problema para él. Al concebir
que la MM abarque también sistemas intra-matemáticos, estos modelos a los que nos referimos aquí podrían
ser construcciones matemáticas en las que las preguntas que las originaron no se evidencian a los
estudiantes, sino que se presentan saberes “cerrados” al estilo de lo que nos encontramos usualmente en el
modelo tradicional de enseñanza.
c) el docente le asigna como tarea al estudiante una situación a modelizar. La construcción del modelo está a
cargo del estudiante
En este caso, la tarea es un problema para el estudiante, le generará incertidumbre, no sabrá exactamente
qué pasos debe seguir para resolver, siendo éstas manifestaciones del bloqueo inicial.
Es interesante resaltar que la situación a modelizar que el docente plantea podría no ser rica desde la
perspectiva de la modelización matemática en el siguiente sentido: ocurre, a veces, que se presentan
actividades cuya formulación incluye tanta información adicional que se quita la posibilidad de análisis y toma
de decisiones. Es usual también, por ejemplo, encontrar textos en los cuales se incluye el modelo
matemático explícito de una situación extra-matemática que se describe. En esos casos el docente debería
tener en claro que sus estudiantes no están modelizando matemáticamente o, al menos, lo harían
parcialmente.
Los investigadores que trabajan a partir de situaciones extra-matemáticas han querido proponer que la
enseñanza de la matemática pueda diseñarse a partir de tareas de MM. Más aún, con el fin de darle más
entidad a la enseñanza de la modelización estos autores llaman “Modelación Matemática al método de
enseñanza y aprendizaje que utiliza el proceso de modelización en cursos regulares” (Bassanezi, 2002,
p.14). La palabra surge de una contracción entre las palabras “modelización” y “educación”. Aunque hoy en
día se cuenta con este concepto, advertimos al lector que por abuso del lenguaje, seguimos encontrando y
expresándonos con el término modelización cuando nos referimos a la enseñanza.
Esta distinción surge para hacer notar que por diferentes razones (organizativas, institucionales, de
currículum, tiempo, etc.), muchas veces se hace imposible desarrollar en el aula una experiencia de MM, tal
cual fue explicitada en el apartado anterior pero se pretende rescatar e incluir en la clase algo del espíritu
propio de ese proceso. Por otro lado, a veces el modelo que mejor se adapta a la situación planteada
involucra contenidos matemáticos que los estudiantes no tienen disponible y el docente decide que no es
pertinente para su contexto el trabajo en esas condiciones. Por lo tanto, el docente deberá tomar esto en
cuenta y mediar entre la situación real y la que será factible llevar al aula. Esto conlleva, como en todo
proceso de enseñanza, la necesidad de tomar recaudos para que la transposición didáctica respete el
sentido que la MM tiene.
Análogamente a las formas de trabajo con la MM en la clase que acabamos de mencionar, sumamos los
aportes de Barbosa (2001), citado en Villareal, Esteley y Mina (2010), quien asocia diferentes tipos de
actividades en la clase, dependiendo del contexto educativo donde se lleve a cabo la modelización:
a) El profesor describe la situación-problema con la información necesaria para resolverla. Los alumnos
participan en el proceso de resolución.

23
Mabel Rodríguez y Patricia Barreiro

En este caso, la situación podría ser problema para los estudiantes, pues ellos no saben cómo resolverla,
aunque desde el punto de vista de la MM podría ser o no rica.
b) El profesor describe la situación de la realidad, los estudiantes buscan los datos y elaboran la información
necesaria para resolverla.
Aquí la situación sería un problema y se respetaría el sentido completo de la MM.
c) Los estudiantes escogen, formulan y resuelven el problema relacionado con un tema no matemático.
Este caso se asocia con la etapa 5 del esquema que presentamos arriba, la formulación de la situación es
parte de la tarea del estudiante, dando origen al circuito completo de la MM.
La elección del caso que se lleva a cabo en el aula dependerá de la experiencia que el docente y los alumnos
tengan en modelización; de los objetivos perseguidos en el curso, de los tiempos, entre otras variables de
contexto. En el primero de los casos recién mencionado, se presenta un problema que ya se encuentra
modelizado. Esta propuesta es de un nivel más bajo (mirado desde la experiencia de la modelización) que el
último caso, ya que no se pone en juego que los alumnos modelicen una situación real, sino que se muestra
ya en la etapa en donde el modelo fue definido. Sin embargo, en el último caso descripto, el docente debería
tener una experiencia en modelización mucho más amplia para proponer a sus estudiantes la libertad de la
elección del problema. El trabajo aquí es mucho más complejo.
Según Biembengut & Hein (1999, p. 122),
el docente debe realizar un proceso en dos sentidos, primero el de descontextualización y
segundo el de recontextualización, de tal manera que la situación, sin perder su esencia e
intencionalidad, se transforme en una situación que propicie el aprendizaje de los estudiantes.
En este sentido es posible entender al proceso de modelación matemática como una
“transposición didáctica” del proceso de modelización matemática que aunque no es
directamente un objeto científico si se considera como actividad científica.
Nos preguntamos entonces ¿cómo diseñar una actividad para el aula de modo que los estudiantes deban
llevar a cabo un proceso de modelización matemática?
Se puede pensar en que debe cumplir ciertas pautas:
- La actividad propuesta se deberá presentar como un problema a resolver en un contexto amplio
- La persona que lo intenta resolver no necesariamente cuenta con toda la información suficiente en
su enunciado
- Se deben poder establecer las variables que intervienen, decidir cuáles son relevantes y cuáles no;
ordenar la información, establecer suposiciones sobre la evolución del proceso
Respecto a los objetivos de aprendizaje:
• Plantear objetivos referidos al proceso de modelización
• Si se quiere incluir un desarrollo posterior del tema matemático, proponer objetivos sobre esto
• Decidir si se desea incluir objetivos comunicacionales, si se requerirá la elaboración de un informe,
si éste tendrá presentación oral, etc.
Respecto a la organización del trabajo en el aula se deben considerar
• Comunicar los objetivos a los estudiantes
• Organizar los tiempos y dar pautas de trabajo
• Establecer momentos de tutoría o consulta
• Determinar el tipo de trabajo (en grupo, individual, de a pares, etc.)
Respecto a la comunicación de las pautas de evaluación, los criterios de evaluación que deben ser explícitos
para los estudiantes podrían atender a, por ejemplo:
• Búsqueda de información y tipo de fuentes consideradas (información de fuentes confiables)

24
1. Modelización y resolución de problemas

• Organización de la información
• Resolución matemática apropiada
• Análisis de las variables, estudio de la adecuación de solución, etc.
• Uso apropiado del lenguaje simbólico
• Presentación escrita, según pautas
• Exposición oral (si corresponde)
1.4. Reflexiones finales
Los desarrollos teóricos realizados en el campo de la Educación Matemática han permitido dilucidar y ampliar
el campo del conocimiento sobre la Resolución de Problemas y la Modelización Matemática, ofreciéndonos
precisiones en formas de concebir los conceptos, alcances, diferencias, etc.
Consideramos que hemos puesto de manifiesto la riqueza y el valor que tiene incluir la Resolución de
Problemas y la Modelización Matemática en las clases de matemática por capturar el espíritu de trabajo del
matemático, dando la posibilidad de que los estudiantes lo experimenten en su formación.
Sin embargo, también ha quedado de manifiesto que trabajar con resolución de problemas o con
modelización matemática no es una tarea sencilla ni para el docente ni para los estudiantes. El docente
deberá estar convencido del valor formativo de este tipo de experiencias y favorecer un clima de trabajo en el
aula en donde se potencien los aportes individuales, el trabajo colectivo, la búsqueda de información, las
diferentes resoluciones, el análisis crítico de las mismas, etc. El estudiante, por su parte, deberá estar
comprometido con el trabajo y aceptar la incertidumbre como parte constitutiva de su aprendizaje.
En este libro el lector se encontrará con ejemplos de situaciones extra-matemáticas desarrolladas desde la
perspectiva de la Modelización Matemática con una reflexión para el trabajo en el aula que esperamos
enriquezca tanto la enseñanza como el aprendizaje de matemática.
1.5. Referencias bibliográficas
Barquero, B. (2009). Ecología de la modelización matemática en la enseñanza universitaria de las
matemáticas. Tesis doctoral. Departament de Matemàtiques. Universitat Autònoma de Barcelona.
Bassanezi, R. (2002). Ensino-aprendizagem com Modelagem Matemática. San Pablo, Brasil: Editora
Contexto.
Biembengut, M. y Hein, N. (1999). Modelización matemática: estrategia para enseñar y aprender matemática.
Educación Matemática 11 (1), 119-134.
Borasi, R. (1986). On the nature of problems, Educational Studies in Mathematics 17, 125-141.
Brousseau, G. (1993). Fundamentos y métodos de la didáctica de la Matemática. Córdoba: Serie B. Trabajos
de Matemática, FAMAF, UNC.
Campistrous, L. y Rizo, C. (1996). Aprende a resolver problemas matemáticos. Ciudad de la Habana: Pueblo
y Educación.
Cristante, C.; Esteley, C.; Marguet, I. y Mina, M. (2008). Experiencia de modelización en aula con orientación
en Economía y Gestión de las organizaciones. En: R. Abrate y M. Pochulu (comps), Experiencias,
propuestas y reflexiones para la clase de Matemática (pp.305-318), Villa María: Edit. EDUVIM.
Falsetti, M. & Rodríguez, M. (2005). A proposal for improving students’ mathematical attitude based on
mathematical modelling. Teaching Mathematics and its Applications. 24(1), 14-28.
González, F. (1998). Metacognición y Tareas Intelectualmente Exigentes: El caso de la Resolución de
Problemas Matemáticos. Zetetiké 6 (9), 59–87.
González, F. (Comp.) (2012). Testimonios del corazón. Historias de resolutores de problemas matemáticos.
Maracay, Venezuela: Edic. Niem.
Krulik, S. & Rudnick, J. (1987). Problem solving: A handbook for teachers (2nd ed.). Boston: Allyn and Bacon.
25
Mabel Rodríguez y Patricia Barreiro

Lesh, R. & Harel, G. (2003). Problem Solving, Modeling and Local Conceptual Development. Mathematical
Thinking and Learning, 5 (2), 157–189.
Panizza, M. (2005). Conceptos Básicos de la Teoría de Situaciones Didácticas. Extraído el 10 de febrero de
2011 de http://.crecerysonreir.org.
Pochulu, M. y Rodríguez, M. (comps). (2012). Educación Matemática. Aportes a la formación docente desde
distintos enfoques teóricos. Buenos Aires: Ediciones UNGS y EDUVIM.
Polya, G. (1973). How to solve it. Princeton: University Press. 2nd Edit.
Schoenfeld, A. (1985). Mathematical Problem Solving. New York, USA: Academic Press.
Schoenfeld, A. (1992) Learning to think mathematically: problem solving, metacognition and sense making in
Mathematics, in D. Grouws (De.): Handbook for research on mathematics teaching and learning,
New York: MacMillan.
Villarreal, M.; Esteley, C. & Mina, M. (2010). Interplay between modelimg and information and communication
technologies. The International Journal of Mathematics Education, 42, 405-4.

26
2. Producción de miel en una colmena después de una enjambrazón

2
Producción de miel en una colmena
después de una enjambrazón

Marcel Pochulu y Liber Aparisi


2.1. Introducción
Cuando se trata de buscar información en Internet sobre las abejas, millones de páginas aparecen en
cualquier buscador, donde nos cuentan innumerables detalles de este antórfilo1. Si nos imbuimos en la vida
de ellas, encontramos la descripción de un complejo e interesante fenómeno que se da contra la voluntad de
la reina o soberana: la enjambrazón. Una enjambrazón es un proceso biológico natural, paradójicamente
contrario a los intereses del apicultor, mediante el cual se produce la migración de un sinnúmero de abejas
con su reina para formar otra colmena.
Valega (2011) expresa que acontece en momentos de apogeo de la colmena, donde hay una superpoblación
de individuos, y constituye el sistema de propagación de las abejas. Si bien no se conocen con certeza las
causas y factores que desencadenan la enjambrazón, menciona que:
La enjambrazón se produce corrientemente en momentos en que se inicia la gran mielada, con
grandes flujos de néctar, con gran cantidad de abejas que calientan el nido y dificultan la
termorregulación. El néctar compite por espacio con la postura que se ve desplazada hacia
abajo. La reina, al no poder poner con la misma frecuencia, disminuye la liberación de
feromonas, este fenómeno se incrementa en colmenas con reinas viejas ya que éstas de por sí,
liberan menos feromonas. Por consiguiente disminuye la sustancia real de la reina y de la larva,
al disminuir la postura, ya que ésta también libera feromonas (BP o Brood Pheromone) que
inhiben el desarrollo de las celdas reales. (p. 2)
Más detalles sobre lo que acontece durante este fenómeno, y con posterioridad a él, se relatan en Padilla
Álvarez, Flores Serrano y Campano Cabanes (2011, p. 11):

1 Proviene de anthophila, palabra griega que significa “que ama las flores”.

27
Marcel Pochulu y Liber Aparisi

En muchos casos en una colonia no se produce un solo enjambre, sino que con posterioridad a
la salida del primero (el más numeroso) quedan en la colonia realeras en desarrollo, de las que
nacerán un cierto número de reinas. Si la primera que nace elimina a sus hermanas antes de
que nazcan, la colmena se estabiliza y no se producirán enjambres secundarios. Pero en el caso
de que nazcan varias reinas, algunas se marcharán de la colonia con una parte de los efectivos,
lo que determina la formación de otros enjambres denominados secundarios. Estos enjambres
están formados por un número pequeño de obreras y reciben la denominación de jabardos o
jabardillos.
Complementando lo expresado anteriormente, Valega (2011, p. 3) relata que:
Este enjambre, que generalmente es el único y sale con la reina de la colmena en condiciones
de reiniciar la postura en forma inmediata, emigra a varios kilómetros de distancia, recorrido que
puede realizarlo en varias etapas. A los pocos días nace la primer reina de las celdas reales de
enjambrazón y las abejas destruyen las otras celdas y ésta queda como la nueva soberana de la
colmena.
La enjambrazón ocurre en la vida de una colmena. No obstante, no es lo mismo una colmena donde el
hombre explota comercialmente sus productos y manipula la vida y reproducción de las abejas, que un
colmenar silvestre. Y algo más, no todas las especies de abejas viven en comunidad. Existen especies cuyas
abejas son solitarias y no formarán nunca una colmena. A su vez, sabemos que la miel recolectada por una
colonia se relaciona directamente con el número de obreras presentes en la colmena, y que éste depende del
tipo de colmenar que utilicemos.
Teniendo en cuenta este contexto, formulamos la consigna para el problema de la siguiente manera:
Determinar si al apicultor le resulta conveniente o desfavorable, en términos de productividad de miel, que
una colmena enjambre. Entendemos que la respuesta tiene que estar fundamentada a través de un estudio
matemático más que la búsqueda de esta información precisa en Internet o posicionamientos particulares
que adoptan apicultores o expertos en el tema.
Entonces, los invitamos a continuar leyendo sobre abejas, colmenas, enjambrazones y la actividad del
hombre como apicultor con el propósito de comprender acabadamente la situación problema.
2.2. Contextualización de la situación problema
2.2.1. Sobre abejas
Existen más de 15.000 especies de abejas en el mundo y, lo que es sorprendente para muchos, solo unas
1.000 de estas especies son abejas sociales. Al decir sociales, queremos describir a aquellas abejas que al
igual que las hormigas o termitas, por ejemplo, viven en comunidades organizadas. Los nidos de las abejas
son colonias y a éstas se las llama colmenas.
De las especies eusociales2, unas 20 son las utilizadas por el hombre en su actividad apicultora y son
denominadas las abejas de la miel. En el caso de las abejas muy eusociales, se pueden estudiar
básicamente los siguientes rasgos o castas: una única reina madre ponedora de huevos, una casta de
obreras que dan volumen a la colonia, unos poquísimos zánganos (abeja macho) con fines reproductores.
Las abejas se alimentan de la miel que producen con el polen y el néctar recolectados de las múltiples
especies que florecen en las distintas estaciones y climas, siendo siempre el apogeo en la primavera. Es por
ello que esta especie se ve afectada especialmente por la tendencia al monocultivo y, por supuesto, a las
condiciones climáticas desfavorables.
Se necesitó un verdadero interés científico para revisar la creencia de que la colmena tenía un rey y no una
reina. Tal como se creyó hasta que el biólogo Jan Swammerdam (anatomista y zoólogo holandés del siglo

2 Se conocen distintos rangos que determinan cuán sociales son los hipenópteros (orden más numeroso de los insectos que
comprende a las abejas, abejorros, avispas, hormigas, entre otros). Se los puede agrupar en diferentes categorías: presocial,
subsocial, semisocial, parasocial, quasisocial y eusocial. La eusocialidad es un término que dio Suzanne Batra (entomóloga
estadounidense) en 1966 a ciertas abejas, aunque en 1971 Edward Osborne Wilson (entomólogo y biólogo estadounidense) le dio un
significado más preciso. Se caracterizan porque los adultos cuidan de las crías, en un nido viven dos o más generaciones, y los
miembros están divididos en casta reproductora “real” y en casta no reproductora “obrera”.

28
2. Producción de miel en una colmena después de una enjambrazón

XVII), mediante metodología experimental, y diseñando sus propios microscopios, descubrió ovarios y
oviductos en los cuerpos de las abejas reinas. Este descubrimiento “iluminó con un inesperado rayo de luz
toda la política de la colmena, fundándola sobre la maternidad” (Maeterlinck, 1999, p. 16).
Ahora bien ¿qué diferencias existen entre una abeja reina y otra clase de abeja? La respuesta es simple: casi
todo (ver Figura 1). Hay diferencias de tamaño corporal y en el tamaño del cerebro, en el sistema
reproductivo, en sus órganos y, por lo tanto, sus actividades, costumbres y necesidades son distintas.
Además, una abeja reina vive hasta 5 años y no algunos meses como una obrera.

Figura 1: Tamaños comparativos de abejas: obrera, reina y zángano


La alimentación que recibe la larva durante los primeros tres días determinará el crecimiento de una abeja
obrera o una abeja real. Una vez reina, esa será su única alimentación: la jalea real.
La abeja reina tendrá un cuerpo de color más claro y sensiblemente mayor, prácticamente su tamaño será el
doble que el de otra abeja del panal. Al no contar con órganos secretores de cera u recolectores de polen,
jamás saldrá del colmenar en busca de polen y néctar.
Por supuesto que tiene alas, pero unas más cortas que el resto de los miembros de la colonia. La reina vuela
fuera de la colmena solo para fecundarse en el llamado vuelo nupcial y cuando se produce la enjambrazón,
por lo que su esfuerzo y su labor diaria serán dentro del colmenar. Allí es mejor tener alas cortas.
Será la única abeja que no polinizará y la única que se reproducirá y tendrá crías. Una abeja reina pondrá
entre 2.000 y 3.000 huevos diarios, los cuales dan origen a un individuo más de la colmena a los 21 días.
Más que reina, será una esclava de la colmena, y en la bella poética de Maeterlinck, a quien volveremos a
leer en más oportunidades en este capítulo, se expresa:
No experimentará ni el deseo del sol, ni la necesidad del espacio, y morirá sin haber visitado una
flor. Pasará su existencia en la sombra y en la agitación de la muchedumbre, a caza infatigable
de cunas que poblar. En cambio, será la única que conozca la inquietud del amor (Maeterlinck,
1999, p. 177).
Las abejas obreras son el grupo más numeroso y el que da volumen a la colonia. Depende de la especie, de
la región, de la estación del año donde hagamos el conteo, del clima, de la actividad del hombre y de una
cantidad de variables a tener en cuenta, pero podemos decir que una colonia tendrá en promedio unas
70.000 abejas en primavera y alrededor de 20.000 en invierno.
Las tareas que realizan se organizan en función de su edad. Las obreras llegan a vivir unos 45 días en la
época estival y en los primeros días, su labor será limpiar los restos que hayan quedado en sus celdillas
después de su nacimiento. Luego alimentan a las larvas, mientras les entregan el calor necesario. A partir del
décimo día se dedican al cuidado de la colmena, atendiendo a la reina, velando por la limpieza y el orden, y
produciendo cera y miel. A partir de la mitad de su vida y hasta su muerte saldrán a diario en busca de
alimento (néctar, propóleo y polen) y agua. Pueden realizar unos 40 vuelos diarios en un radio de 3km

29
Marcel Pochulu y Liber Aparisi

(Herrero, 2004). Las que nacen en otoño o invierno viven hasta la primavera, aproximadamente unos 4 ó 5
meses.
Los zánganos no son una cantidad representativa dentro de la colmena (entre 500 y 1.500) y su función es
reproductiva. No recolectan y no participan en la polinización, incluso no defienden la colmena ni pueden
defenderse (no tienen aguijón). Viven entre 1 y 2 meses, más o menos como las obreras.
Si pensamos que la vida no puede ser más placentera que la de un zángano, aquí dejamos una posible
respuesta. Es cierto que no trabaja todo el día como las obreras ni pone 3.000 huevos diarios como la reina,
pero en su única tarea deja la vida. Sucede que cuando la reina deja por un momento su colmena y
comienza su cortejo en busca del apareamiento, todas las miradas se ponen sobre los zánganos. Aquel que
vuele más rápido y a la vez sea el más vigoroso será quien fecunde a la reina. En esta unión ocurre que el
sistema reproductor del zángano se desprende de su cuerpo y queda alojado en el de su compañera. Así,
esa bolsa de esperma quedará a disposición de este milagro de la naturaleza, dando miles de huevos y
futuros nacimientos diarios. Como vemos, nada es sencillo. De hecho, si en la colonia no nacen abejas reinas
es muy probable que los expulsen o eliminen.
2.2.2. Sobre las colmenas
Las colmenas son sistemas comunitarios que solo forman algunas subespecies de abejas, entre ellas las
melíferas. Las hay silvestres, y como abordaremos en este apartado y en el próximo con mayor detalle,
estarán también las colmenas construidas por el hombre en su afán de domesticarlas y extraer un beneficio
para su subsistencia, tanto alimenticia como económica en una primera escala, o bien pensando en un
proceso industrializado o de mayor alcance en el mercado.
Las colmenas quedan condicionadas a las regiones donde se encuentran, al clima y a la explotación del
hombre. Necesariamente debemos observar dos puntos importantes: que la vida en los colmenares será
plena y explosiva en primavera y se contraerá en invierno, y que una colmena es un ecosistema en equilibrio
que fácilmente puede deshacerse ante la intervención humana (Coppa, 2006).
La colonia de abejas mantiene una organización entre sus distintos componentes bióticos que permiten este
equilibrio para no solo su supervivencia sino también para conservar la especie. Como dijimos, la
enjambrazón es el proceso encargado de esto último. Pero debemos pensar, antes de la expansión territorial,
en la vida dentro del colmenar. Allí conviven las distintas abejas (reina, obreras y zánganos) cada uno con
una tarea específica como vimos y con ellos distintos microorganismos como bacterias, hongos y otros.
Temperatura, ventilación, humedad y luz solar son algunos de los factores que la comunidad de abejas
mieleras busca controlar. La miel es el alimento de las abejas y es producido por el néctar que ellas recogen,
pues el proceso continúa luego dentro de la colmena, transformando uno en otro, algo que solo resulta bajo
ciertas condiciones de temperatura y humedad.
Damos algunos ejemplos para ilustrar la situación. Si el néctar no pierde cierta cantidad de humedad,
fermenta y es altamente tóxico (y mortal). Si existe una merma en la población, esto repercutirá no solo en la
cantidad de alimento recogido sino en la posibilidad de controlar la temperatura y la ventilación dentro del
nido, provocando la aparición de hongos que atacan el polen guardado. Pero, ¿qué sucede cuando la
colmena no es silvestre sino que está controlada e intervenida por la actividad del hombre, el apicultor?
Coppa (2006, p. 25) nos brinda una respuesta contundente:
(Debemos) visualizar a la colmena como un ecosistema en equilibrio y tratarlo como tal. Las
intervenciones del apicultor suelen romper el equilibrio existente en la colmena dando lugar a
trastornos que afectan el desarrollo equilibrado de la población como la sanidad de la misma, ya
que ante factores de estrés, la colonia enferma.
El apicultor no debería afectar con sus acciones las actividades de las abejas que controlan estos factores
ambientales. Por ello, en pos de acompañar el desarrollo de las poblaciones que intenta explotar, contará con
distintas estrategias que tienen que ver mucho con el cuidado de las colmeneras artificiales –los apiarios-
donde cría y controla a las distintas colmenas. Esto es, el sitio donde se ubicarán, su disposición y
orientación al sol, la separación entre colmenas, aperturas de piqueras (entradas al apiario), controlar
reservas de alimentos y en caso de falta: suplementar, cuidados sanitarios (prevención de hongos, bacterias,
etc.), abastecimiento de agua, entre otros.

30
2. Producción de miel en una colmena después de una enjambrazón

2.2.3. Sobre la actividad del hombre: la apicultura


El hombre siempre se alimentó de la miel que producen las abejas. En América, antes de la llegada de los
españoles que la colonizaron, los pobladores originarios contaban con especies de abejas melíferas locales
(meliponas o abeja sin agijón). En México, este tipo de abeja data de la época precuauhtémica (tiempos de
los viejos abuelos indígenas) y se sabe que “la miel producida por abejas ha sido uno de los productos que el
hombre también ha buscado como medicina, magia, moneda y tributo, lo cual motivó la socialización de las
especies” (Rivera, Losada, López, Cortés, Vieyra y Grande, 2007, p. 2).
Las especies nativas fueron reemplazadas por abejas europeas traídas especialmente con ese fin. La abeja
europea es un insecto sumamente domesticado, con miles de años de adaptación y selección natural. Es
manso y un gran recolector de polen y productor de miel.
No obstante, en Brasil y a mediados del siglo pasado, hubo un acontecimiento destacado que modificó la
apicultura tal como se la conocía. Warwick Kerr (biólogo, ingeniero agrónomo y genetista) puso en marcha su
experimento con abejas africanas. En 1956 consiguió el apoyo ministerial y con la idea de explorar el
potencial de una de las especies de abejas africanas (subespecie de Apis mellifera scutellata) importó desde
ese continente abejas reinas. Su línea de trabajo buscaría desarrollar una nueva colonia que validaría su
hipótesis que afirmaba que estas abejas, en este contexto tropical, se acondicionarían de manera óptima,
producirían mayor volumen de miel y sus colmenas serían más resistentes a las plagas.
Cuando Kerr introduce la abeja africana, se buscaba justamente capitalizar su condición de insecto silvestre,
poco domesticado, con sus instintos de defensa intactos. El comportamiento defensivo que tenían estas
abejas las hacía inmune a los ácaros y parásitos que lograban diezmar los colmenares de la abeja europea.
La idea del experimento era contar con una especie mejor adaptada, más resistente, más fuerte y, en
consecuencia, productora de un mayor volumen de miel.
Había que encontrar cómo desarrollar técnicas para manejarlas, para cuidarse de su “excesiva” defensa y
principalmente del fenómeno propio de la abeja: la enjambrazón. Algo más, en esta especie el fenómeno es
aún más recurrente y sucede con mayor frecuencia que en la abeja europea.
Mientras estudiaban su comportamiento y la colmena, ocurrieron algunas enjambrazones, algunas
controladas y otras no. Es decir, ocurrió por lo menos un éxodo masivo que no detuvo el equipo investigador
y ya lo adelantamos: en muy pocos años ocurrió una verdadera explosión de la colonización de esta especie.
La abeja africana fue “copando” las colmenas de las abejas mansas que las ocupaban y fue extendiendo su
dominio rápidamente. Esta situación fue posible dada las características propias de esta especie,
observándose ataques en masa, continuos y persistentes, y mayor respuesta ante estímulos que provocan
un estado de inmediata alarma. La abeja africana, de este modo, fue cruzándose con las abejas nativas y se
produjo el híbrido llamado “abeja africanizada”.
En la actualidad, la región se amplió a los países de toda América del Sur, América Central y México y sur de
EE.UU. Si nos preguntamos por qué no se detuvo esta hibridación (así se llama este proceso biológico), la
respuesta necesariamente tiene que atender lo dificultoso del asunto, en cuanto a la logística del proceso de
revertir todo el fenómeno en esta tan amplia región. Particularmente Thimann (2006, p. 2) relata que:
En tres décadas un pequeño experimento de importación de abejas melíferas se constituyó en
una población de millones de colonias que ocupan una superficie aproximada de 25 millones de
kilómetros cuadrados.
Y, por otro lado, si bien hubo rechazo a esta “nueva” abeja, los productores al cabo de unos años y mediante
acciones específicas de los gobiernos de todos los países afectados, comenzaron a contar con nuevas
técnicas que permitieron una efectiva manipulación de abejas y colmenas. Emprendieron un proceso de
selección de la especie a los fines de disminuir las enjambrazones y, principalmente, ya no hubo que
preocuparse por antibióticos o productos químicos para mantener sano el colmenar, pues las mismas abejas
se ocupaban. Al respecto, Thimann (2006, p. 10) alega que:
La apicultura resultó ser exitosa de nuevo a medida que las personas aceptaron las diferencias y
se fueron adaptando a las nuevas abejas. Las abejas africanizadas presentaron una serie de
ventajas al compararlas con las abejas europeas. Las colonias se desarrollaban con mayor
rapidez, son más resistentes a las enfermedades, son más eficientes como polinizadores,
producen más miel y, pueden mantenerse en zonas con severos cambios climáticos, donde las

31
Marcel Pochulu y Liber Aparisi

abejas europeas no sobrevivirían; como lo es el Cerrado Brasilero (clima similar a las sabanas
secas del África).
Así, de esta forma, la región se permitió contar con un producto orgánico, una miel más buscada y mejor
cotizada en el mundo. Además se lanzó al mercado a estas abejas como productoras de propóleo3 y
finalmente, dejaron de tener tanta mala prensa.
2.2.4. Sobre las enjambrazones
Por lo comentado precedentemente sabemos que es un suceso que ocurre en las comunidades de abejas.
Además, sabemos que la abeja africana produce más enjambrazones que la europea, pero este hecho es
fundamental y primario, ya que garantiza la perpetuidad de la colmena y de la especie.
Una colmena entonces hace un planteo reproductivo en el cual mediante este fenómeno se subdivide en
distintas pequeñas comunidades, que en un tiempo determinado alcanzarán nuevamente el volumen normal
poblacional. La enjambrazón subdivide una colmena, para luego de un período conformarse en una nueva
colonia madura y presta a continuar el ciclo de enjambres.
Las investigaciones en este campo indican que para las abejas europeas “la frecuencia de las
enjambrazones está en la media de dos/año y las temporadas en que se presentan son de marzo a julio o de
junio-agosto, en tanto que las colmenas africanizadas llegan a tener hasta 10 enjambres/año distribuidas a
través del tiempo” (Rivera et al, 2007, p. 5 ). Tengamos presente que esta información corresponde a México,
donde en marzo inicia la primavera y en junio el verano.
Lo anterior dicho es lo más frecuente, lo normal. Sin embargo, otros estudios, como el de Pesante (2009),
muestran casos no tan frecuentes donde la abeja europea puede llegar a producir una enjambrazón cada dos
años y la africana, hasta 30 por año.
Para dejar en claro lo que ya hemos comenzado a interpretar un poco intuitivamente, resulta interesante e
integrador leer lo que comenta Pesante (2009, p. 4):
La abeja africanizada es una abeja mayormente silvestre y ha experimentado poca selección por
el ser humano. La colonia de abeja europea ha estado, por siglos, bajo selección hacia poca
enjambrazón y mayor producción de miel, por lo que llegamos a observar mucha menos
variación y promedios más atractivos (menores) en el comportamiento de enjambrazón y en el
de producción de miel (mayores). Por el contrario, la abeja africanizada ha tenido como factor de
selección principal, la naturaleza. Esta selección natural, por lo general, va dirigida en una
dirección diferente a la del interés del ser humano y lo que éste desea para una Industria
Apícola.
Existen algunas causas observables y presentes en las colonias que predisponen este hecho. Así como
también se entiende que para la producción del apicultor, que sus colonias pierdan un 50 o 60 % de las
obreras, repercutirá necesariamente en el rendimiento esperado, por lo que “desde un punto de vista práctico
resulta muy interesante poder controlar este proceso biológico” (Padilla Álvarez, Flores Serrano y Campano
Cabanes, 2011, p. 26).
La enjambrazón es el mecanismo natural de reproducción de la colonia, que se pone en marcha cuando se
cumplen determinados estímulos que no son muy claros para los investigadores. Aún no se dispone de una
teoría sólida y totalmente contrastada que permita explicar todas las circunstancias que inducen a una
colonia a enjambrar.
Esta reproducción de las colmenas a primera vista podría ser una situación bien recibida por el apicultor, ya
que se podría presumir que a mayor cantidad de abejas habrá mayor producción de miel. Un estudio
publicado por Padilla Álvarez, Flores Serrano y Campano Cabanes (2011) indica que al duplicarse la
población, se incrementa por cuatro la producción.

3 Mezcla resinosa que obtienen las abejas de las yemas de los árboles, exudados de savia u otras fuentes vegetales y que luego
procesan en la colmena como sellante de pequeños huecos (6 mm o menos). En ocasiones se lo mezcla con cera con el fin de
barnizar todo el interior de la colmena.

32
2. Producción de miel en una colmena después de una enjambrazón

Pero ¿por qué el apicultor busca una abeja que enjambre con menos frecuencia? En realidad lo que se
busca es controlar este fenómeno. El dueño de los colmenares intentará mantener su inversión y su fuente
de ingresos, y si la colonia es gobernada por una abeja que ha superado los 2 o 3 años de vida, estará atento
a una escalada de enjambrazones que deberá capitalizar mediante la caza del grupo exiliado o bien
reemplazando esta reina por una reina joven. Ante un aumento de la población, una alternativa es dividir la
colonia e integrar una nueva reina para esta colmena creada.
Cuando el productor busque ampliar su número de colonias, estará atento al nacimiento de nuevas reinas y
si las separa con éxito al nacer podrá subdividir la colonia en tantas partes como nuevas reinas posea. Otra
alternativa de reproducción artificial es dividir la colonia madre en dos colmenas. En una se encontrará la
reina y la colmena, luego de un tiempo, contará con una población estable y con un número similar al
originario; y en la segunda colonia, que será huérfana de reina, ocurrirá que en los siguientes días a la
partición, las obreras comenzarán a construir celdas reales.
2.3. Aproximaciones matemáticas al problema
Partimos de un problema del cual no teníamos datos numéricos, pero al buscar información los mismos
llegan a saturarnos. Tendremos que hacer un recorte del problema y plantearnos algunas hipótesis.
Determinar si al apicultor le resulta conveniente o desfavorable, en términos de productividad de miel, que
una colmena enjambre, nos lleva a describir la dinámica poblacional de:
a) Cada una de las dos colmenas que surgen después de la enjambrazón. Una con la reina vieja y otra
con la nueva reina.
b) Una colmena en la cual se logra evitar la enjambrazón. Asumimos que una vez que se hace fuerte el
instinto de enjambrar es prácticamente imposible evitarlo por más que se tomen medidas extremas
(matar a la reina más vieja, cortar las alas de la reina, encerrarla entre rejillas, incrementar el
espacio disponible para la postura, la miel y el polen, etc.), pero tomaremos como hipótesis que se
logró evitar la misma y la colmena sigue con la reina vieja.
Buscaremos entender un caso particular, pues la enjambrazón no acontece cuando se alcanzó un número
particular de individuos. A su vez, desconocemos la edad de la reina, siendo un dato relevante pues
condiciona la cantidad de huevos que pone por día. Tampoco conocemos la edad de las abejas, aunque sí
sabemos que la enjambrazón acontece en primavera-verano, donde viven menos tiempo. En este contexto,
tomaremos las siguientes decisiones e hipótesis:
- Cantidad de abejas de la colmena que enjambra: Sabemos que el espacio físico es uno de los
condicionantes para la enjambrazón y éste está ligado al tipo de colmena o “cajón” usado por el
apicultor. Siguiendo a Padilla Álvarez, Flores Serrano y Campano Cabanes (2011) una colmena
Layens, de tipo horizontal, de bajo precio y de fácil manejo, permite alcanzar una colonia de
aproximadamente 45.000 abejas; mientras que una colmena Langstroth, de tipo vertical, de fácil
extracción de miel pero precio más elevado, puede llegar a tener una población de 100.000
insectos. Para la situación problema consideraremos que se tiene una colmena Langstroth y que la
enjambrazón acontece al llegar a un valor cercano al número máximo de insectos que alberga
(supongamos 90.000 abejas). Excluimos de este número a los zánganos, en tanto se tienen entre
500 y 1.500 en una colmena y no contribuyen a la producción de miel, sino a fertilizar en un
momento determinado a la reina.
- Época de la enjambrazón: Padilla Alvarez, Flores Serrano y Campano Cabanes (2011) sostienen
que la enjambrazón se produce en primavera-verano, pues es la época de la gran mielada que tiene
una duración de entre 15 a 20 días.
- Condiciones climáticas: Ellis (2014, p.1) explica que una colmena que resiste el frío invierno tiene
un gran potencial. En primavera aquellas colmenas que han tolerado el invierno se pueden dividir,
reemplazar la reina o conseguir que produzcan cantidades significativas de miel. En consecuencia,
tomamos como supuesto un clima y una ubicación propensos para desarrollar la enjambrazón.
- Cantidad de abejas que se quedan/dejan la colmena inicial: En Portal Apícola (2015) se relata
que durante la enjambrazón la reina se va de la colmena llevándose de 60 a 70 mil abejas de las 80

33
Marcel Pochulu y Liber Aparisi

a 90 mil que conformaban la colonia. En la colmena original queda la nueva reina con el resto de la
colonia y se fecundará en los vuelos nupciales. En consecuencia, si asumimos que la colmena tiene
unos 90 mil individuos, entonces 60 mil dejan la misma junto con la reina madre o vieja, y los 30 mil
restantes permanecen con la nueva reina. A su vez, asumimos que el enjambre que deja la colonia
no inicia desde cero, sino que migra a una colmena o núcleo vacío, el cual cuenta con un cuadro4 o
dos móviles con miel como alimento o alimentación artificial (jarabe) y se completa la nueva colmena
con cuadros de cera estampada.
- Alimentación de la colmena: El principal alimento de las abejas es la miel y el polen, pues son
ricos en azúcar y proteínas e importantes para su desarrollo y nutrición. Tomamos como supuesto
que la colmena no tendrá dificultades para la obtención de alimento ni será necesario recorrer
grandes distancias para conseguirlo.
- Seguridad/inseguridad de la colmena: Asumimos que la colmena está ubicada en un sitio donde
no corre riesgo de inseguridad a causa de depredadores. Esto significa que, a pesar de tener
numerosos enemigos (desde parásitos que pueden causarle la muerte hasta otros animales que le
causan daño a nivel de colmena), el número de individuos no será afectado por esta variable que en
un medio natural es relevante.
- Cantidad de huevos que pone la abeja reina: Diversos autores señalan que resulta difícil precisar
cuántos huevos puede poner una abeja reina, ya que esto depende de varios factores, tales como
espacio de la colmena, temperatura, alimento, condiciones genéticas, etc. Asumiremos que la
colmena se encuentra en óptimas condiciones, razón por la cual la abeja reina joven logrará poner
3.000 huevos al día, mientras que la abeja reina madre unos 2.000. El tiempo que demanda para
que de un huevo se tenga una abeja será de 21 días.
- Edad de las abejas: Debido a que en una colonia las funciones de las abejas están determinadas
por la edad que ellas tienen, asumimos que existirán abejas de todas las edades. A su vez, como la
enjambrazón ocurre en primavera-verano y coincide con la época que menos viven las abejas,
establecemos que su esperanza de vida será de 40 días.
Tomadas las decisiones sobre las variables que intervienen en la situación problema, buscaremos describir
(mediante tablas) la cantidad de individuos que cada colmena tiene. Algunos detalles a tener en cuenta:
- En la vieja colmena, donde quedó la abeja reina joven, seguirán produciéndose nacimientos, fruto
de los 2.000 huevos que había puesto la abeja reina madre o vieja. Este proceso se producirá
durante los primeros 21 días. Asimismo, en la vieja colmena siempre habrá muerte de individuos.
- En la nueva colmena no se producirán nacimientos durante los primeros 21 días. Al contar la
colmena con cuadros móviles para que la nueva reina ponga sus huevos, no se tendrá que esperar
a que las obreras construyan las celdas y la reina ponga sus huevos. Este proceso acontecerá
desde el primer día que la colonia se radica en la colmena.
- En ambas colmenas se producirán muertes diarias, pues asumimos que hay abejas de todas las
edades. Un detalle que resulta relevante a tener en cuenta es que a los 40 días habrán muerto
todas las abejas que iniciaron ambas colonias. En consecuencia, en la nueva colmena conformada
por 30 mil abejas, morirán 750 por día. Este valor surge de considerar que existen abejas de todas
las edades y que viven 40 días. En la vieja colmena, conformada por 60 mil individuos, se
producirán muertes a razón de 1.500 abejas por día.
- En la nueva colonia tendremos un período donde solo se producirán muertes y eso ocurre en los
primeros 21 días hasta que nacen las abejas hijas de la abeja reina vieja.
- A partir del día 61 morirán las abejas que nacieron el primer día, pues habrán llegado a su
esperanza de vida (40 días + 21 días en estado de larva).

4 Una colmena Langstroth, que utilizamos en nuestro supuesto, utiliza cuadros de 447,6 mm de largo y 285,7 mm de profundidad,
espaciados a una distancia de 35 mm entre los centros de los mismos.

34
2. Producción de miel en una colmena después de una enjambrazón

En consecuencia, la dinámica poblacional para cada una de las dos colmenas que deviene de la división
después de la enjambrazón, y durante los primeros 90 días, queda representada en las Tablas 1 (liderada
por la abeja reina madre o vieja) y Tabla 2 (liderada por la abeja reina nueva) que se exponen a continuación:

Tabla 1: Dinámica poblacional de la colonia liderada por la abeja reina madre o vieja

Tabla 2: Dinámica poblacional de la colonia liderada por la abeja reina joven

35
Marcel Pochulu y Liber Aparisi

Una representación gráfica del número de individuos de las dos colmenas, en función de los días que
transcurren desde la enjambrazón, es la que contempla la Figura 2.

Figura 2: Dinámica poblacional de las colonias

Un primer análisis de la información que arrojan las tablas y gráficas nos muestra que a partir del día 61
ambas colmenas logran estabilizarse en el número de individuos. Esto es lógico pensarlo después de haber
transitado por la resolución del problema, pues todas las abejas que conformaban cada colmenar mueren en
40 días y el número de individuos depende de la cantidad de huevos que pone la abeja reina. Es más, el
número en el cual se estabiliza la colmena no es nada más que la multiplicación entre la esperanza de vida
de las abejas y la cantidad de huevos que ponen cada una de las reinas.
Si esta conjetura la damos por válida, es necesario reajustar ambos modelos, pues si suponíamos una
colmena inicial de 90 mil individuos, entonces la abeja reina madre o vieja no pondría 2.000 huevos sino
2.250 (surge de dividir 90.000 entre 2.000). A su vez, si pensamos que el número de individuos es una
variable que conlleva a la enjambrazón, no sería razonable pensar que la abeja reina nueva pone 3.000
huevos por día. Si fuese así, alcanzaría la estabilidad de 120 mil individuos a los dos meses, superando la
capacidad que tiene la colmena para albergarlas. Esta situación habría producido una nueva enjambrazón, lo
cual no es habitual ni reportado por los estudios de apicultura. En consecuencia, estos hechos nos dan un
nuevo ajuste para la cantidad de huevos que pondría la nueva reina, el cual quedaría en 2.500.
Es de destacar que la cantidad de abejas que conforma cada colmena no es una variable que condiciona el
número de individuos en el cual se estabiliza la colonia. Esta situación suele ser una preocupación de los
estudiantes que buscan determinar con cierto grado de precisión la cantidad de abejas que se quedan en la
colmena y las que emigran. A su vez, también es una preocupación de los estudiantes determinar la edad
que podrían tener las abejas para establecer el número de ellas que moriría por día.
Ahora bien, lo que sí suele escaparse del análisis que hacen los estudiantes es que la cantidad de huevos
que pone una reina y la vida media de una abeja determina la máxima cantidad de individuos de la colonia.
Este dato no es menor, pues conlleva a reajustar la hipótesis del número de abejas que tiene inicialmente
una colmena. Por ejemplo, si suponemos que la colmena tiene inicialmente 60 mil abejas, que la reina pone

36
2. Producción de miel en una colmena después de una enjambrazón

2.000 huevos y que la esperanza de vida de las abejas es de 45 días, los datos son inconsistentes. Es más
razonable que la colmena tenga inicialmente unas 90 mil abejas, que es el número esperado para una
colmena estable de una reina que pone 2.000 huevos y se espera que cada individuo viva,
aproximadamente, 45 días.
Finalmente, el modelo gráfico ajustado para los dos tipos de colmena queda representado en la Figura 3.

Figura 3: Dinámica poblacional de las colonias reajustado

Si N representa el número de individuos de una colmena (en miles de abejas) y t el tiempo medido en días, el
modelo funcional asociado será:

Colmena con Colmena con Colmena no enjambrada


abeja reina nueva abeja reina madre con abeja reina madre

0,75𝑡 + 60 0 ≤ 𝑡 ≤ 21 −0,75𝑡 + 30 0 ≤ 𝑡 ≤ 21
𝑡 + 54,75 21 < 𝑡 < 40 1,5𝑡 − 15 21 < 𝑡 < 40
𝑁(𝑡) = { 𝑁(𝑡) = { 𝑁(𝑡) = 90
0,25𝑡 + 84,75 40 ≤ 𝑡 < 60 2,25𝑡 − 45 40 ≤ 𝑡 < 60
100 𝑡 ≥ 60 90 𝑡 ≥ 60

Nos resta determinar la productividad de miel de estas colmenas. En cuanto a la productividad de miel, Farrar
(1931, 1937, 1967) realizó varias investigaciones sobre el comportamiento de las abejas estudiando la
dinámica poblacional y curvas de crecimiento o decrecimiento de la población. Entre sus conclusiones más
relevantes tenemos la regla de Farrar, la cual expresa que a medida que aumenta la población de una
colmena, mayor es la producción individual de cada abeja. Es un principio bastante estudiado por los
apicultores y cuantifica la relación que existe entre la cantidad de cría cerrada u operculada en las celdas, la
cantidad de obreras pecoreadoras (obreras de exterior) y los kilogramos de miel que es capaz de acumular
una colmena.
37
Marcel Pochulu y Liber Aparisi

Bajo esta regla se rescata la importancia de poseer pocas colmenas con muchas abejas, más que muchas
colmenas con pocas abejas. En la Tabla 3 completamos con algunos valores lo que establece la regla.

Tabla Nº 3: Relación entre número de obreras, peso del colmenar y rendimiento de miel

Total de obreras 10.000 20.000 30.000 40.000 50.000 60.000


Peso de la población 1 kg 2 kg 3 kg 4 kg 5 kg 6 kg
Rendimiento miel 1 kg 4 kg 9 kg 16 kg 25 kg 36 kg

Se puede advertir que existe una función polinómica de grado dos que relaciona el rendimiento de miel con el
total de obrera, tal como se refleja en la Figura 4.

Figura 4: Representación gráfica y modelo funcional de la Regla de Farrar

Así, si 𝑅 representa el rendimiento de miel en kilogramos de una colmena y 𝑛 el número de obreras en miles,
la Regla de Farrar queda establecida por la siguiente expresión:
𝑅(𝑛) = 0,01𝑛2
En consecuencia, los valores máximos de miel que obtendríamos durante una temporada para cada colmena
serían los siguientes:

Colmena con Colmena con Colmena no enjambrada


abeja reina nueva abeja reina madre con abeja reina madre

𝑅(100) = 0,01 ∙ 1002 = 100𝑘𝑔 𝑅(90) = 0,01 ∙ 902 = 81𝑘𝑔 𝑅(90) = 0,01 ∙ 902 = 81𝑘𝑔

38
2. Producción de miel en una colmena después de una enjambrazón

2.4. Interpretación de resultados del problema


Con el trabajo se pone en evidencia que la potencia productiva de una colmena depende en gran medida (sin
que este sea el único factor interviniente) de la capacidad de la reina. Al disminuir la cantidad de huevos que
pone diariamente, la reina conlleva a una disminución del número de abejas de la colonia y, por lo tanto, del
rendimiento de miel que se espera de la colmena. En consecuencia, si una colmena enjambró, se tendrán
dos colonias donde una de ellas (la que contiene la abeja reina madre) tendrá menor rendimiento de miel por
albergar una menor cantidad de individuos. El número de abejas que tiene una colonia es decisivo para el
rendimiento de miel que se espera de la colmena. No es lo mismo el rendimiento de miel de dos colmenas
pequeñas que una sola teniendo el número de abejas de las otras dos.
Notemos que partimos del supuesto que la reina nueva quedaba en la colmena y emigraba la reina madre,
como lo señalan algunos autores. Otros, en cambio, indican que es la reina joven la que emigra. Se puede
constatar con el estudio de casos particulares que los resultados serán similares en ambos casos. Hemos
visto que el número de individuos de la colonia depende de la cantidad de huevos que pone la reina y no de
la cantidad de abejas que la acompañan.
Si bien a un apicultor le resulta beneficioso tener un mayor número de colmenas, mostramos con la
modelización matemática que no es conveniente que las mismas devengan de enjambrazones. Para ello, la
apicultura tiene desarrollado métodos para multiplicar eficientemente el número de colmenas o efectuar el
recambio de reinas antes de producirse una enjambrazón.
2.5. Referencias bibliográficas
Ellis, J. (2014). La enjambrazón: causas y control. El Colmenar, 119(1).
Coppa, R. (2006). La colmena: un ecosistema en equilibrio. Misceláneas, 6, 25-30.
Farrar, C. L. (1931). The evaluation of bees for pollination. Journal of Economic Entomology, 24, 622-627.
Farrar, C. L. (1937). Influence of colony population on honey production. Journal of Agricultural Research, 54,
945-954.
Farrar, C. L. (1967). The life of the honey bee its Biology and behavior with an introduction to managing the
honey-bee colony. American Bee Journal, 107(12), 461-464.
Mæterlinck, M. (1958). La vida de las abejas. Buenos Aires, Argentina: Losada.
Herrero, F. (2004). Lo que usted debe saber sobre las abejas y la miel. Madrid, España: Ediciones Caja
España.
Padilla Álvarez, F., Flores Serrano, J. M. y Campano Cabanes, F. (2011). La Enjambrazón. El Colmenar, 102,
24-31.
Pesante, D. (2009). Manejo del comportamiento de enjambrazón y su efecto en la cantidad de miel
almacenada. Disponible en: https://buscodescargas.files.wordpress.com/2012/10/apicultura-manejo-
de-la-enjambrazc3b3n.pdf
Portal Apícola (2015). El vuelo del enjambre de las abejas. Disponible en: http://api-cultura.com/el-vuelo-del-
enjambre-de-abejas/
Rivera, J.; Losada, H.; López M.; Cortés, J.; Vieyra, J. y Grande, D. (2007). Sistema de producción de miel en
las áreas peri-urbanas de Milpa Alta, sureste de Ciudad de México. Livestock Research for Rural
Development, 19 (2), 1-7. Disponible en http://www.lrrd.org/lrrd19/2/rive19029.htm
Thimann, R. (2006). Retrospectiva de 25 años de la abeja africanizada en Venezuela. En L. Gallardo
(Comp.), XII Congreso Venezolano de Producción e Industria Animal (pp. 1-15). San Juan de Los
Morros, Venezuela: Universidad Rómulo Gallegos.
Valega, O. (2011). Los enjambres, un preciado regalo de la naturaleza. Apicultura sin fronteras, 62, 1-7.

39
3. Patrón de corte en cubiertas de chapas para la salida de caños y tuberías

3
Patrón de corte en cubiertas de chapas
para la salida de caños y tuberías

Marcel Pochulu
3.1. Introducción
Toda vivienda se completa con una forma de cubierta o techo que es parte importante de la personalidad y
carácter de su arquitectura. Los techos cumplen varias funciones útiles, como canalizar las aguas pluviales y
ser la principal barrera hidráulica y de protección mecánica frente a las situaciones climáticas, pero también
decoran y sirven para diferenciar una casa por la terminación estética de la construcción.
Una solución muy difundida para la materialización de la cubierta es el techo de chapas, cuya práctica está
promovida por la relativa facilidad y economía en la instalación. Un techo de chapas no es sinónimo de
vivienda económica, pues las técnicas actuales para la elaboración de los materiales se han desarrollado
mucho y mejoraron notablemente las condiciones estructurales y de seguridad. Además, es posible encontrar
diferentes perfiles y colores, que realzan los valores estéticos de la casa.
Como materiales para la cubierta se emplean chapas de cinc, de cobre, de plomo, de aluminio, de acero
galvanizado, las cuales se proveen pintadas, onduladas y autoportantes5. No obstante, un techo debe
responder adecuadamente a las condiciones bioclimáticas de su localización, como lluvia, nieve, granizo,
viento, irradiación solar, frío y calor. En particular, uno de los mayores inconvenientes que presentan las
cubiertas de chapas es que apenas protegen contra las fluctuaciones de la temperatura por lo que hay que
prever un buen sistema de aislación y evitarse importantes cantidades de agua de condensación.
Habitualmente, en las viviendas, las cubiertas de chapas están por encima de una estructura de madera
machihembrada de ½ a 1 pulgada, con cabios6 de 2 x 5 pulgadas y separados no más de 70 cm entre ejes,
barrera de vapor, aislante térmico no inferior a 35 mm, listones escurridores y clavaderas (Figura 1).

5 Se llaman autoportantes porque son capaces de soportar todo el peso sin sufrir ningún deterioro.
6 Listón que se atraviesa a las vigas para formar el techo.

41
Marcel Pochulu

Figura 1: Componentes básicos de una cubierta de chapas para vivienda7


Estas cubiertas de chapas suelen estar interrumpidas por la salida de caños y tuberías para ductos de
ventilación o chimeneas que provienen de calefactores, asadores, cocinas, etc. (Figura 2).

Figura 2: Salida de caños en cubierta de chapa galvanizada

7 Fuente de la imagen: https://www.pinterest.es

42
3. Patrón de corte en cubiertas de chapas para la salida de caños y tuberías

Aquí nace nuestra situación problema y proponemos la siguiente consigna:


Establecer un método para realizar un patrón de corte en cubiertas de chapas para la salida de caños y
tuberías. Entendemos que el patrón de corte debe ser óptimo, en el sentido que se restrinja al mínimo la
separación entre la apertura realizada en la chapa y el pasaje del caño o tubería por ella.
En todos los casos fundamentar la respuesta a través de un estudio matemático propio, en lugar de buscar
únicamente la información en Internet o bibliografía especializada.

3.2. Contextualización de la situación problema


Las chapas utilizadas para una cubierta de techo tienen muy poco espesor y no podrían ser lisas, pues se
curvarían con facilidad e impiden que se filtre el agua en las zonas donde se solapa. Por tanto, para que
puedan soportar cargas sin curvarse, se les da rigidez fabricándolas onduladas o plegadas. Cuanto más
grande es el plegado, mayor es la distancia que puede haber entre los apoyos.
Hay canalones y chapas que poseen ondas muy grandes logrando que sean autoportantes y se apoyan sólo
en los extremos. Las chapas de uso más común (que tienen ondas o plegados chicos) necesitan que la
distancia entre los apoyos no sea mayor de 1 metro y requieren más tirantes de sostén.
La gran variedad de chapas que se pueden encontrar en el mercado es sorprendente, son fabricadas en una
gran variedad de tamaños, colores, formas, diseños, dimensiones y grosores, buscando ofrecer un estilo
espectacular en cualquier vivienda y dotadas de alta resistencia y durabilidad (Figura 3).

Figura 3: Tipos de chapas para cubiertas o techos

En el mercado se pueden encontrar básicamente tres grupos de chapas de acero: galvanizadas, prepintadas
y con revestimiento de cinc y aluminio. Las primeras tienen un recubrimiento de cinc lo que logra que sean
resistentes a las resquebrajaduras y son seguras a las variaciones climáticas. En el segundo caso son
chapas galvanizadas prepintadas o recubiertas con una capa epoxi y terminación en esmalte color, logrando
alta resistencia a la corrosión. Y, por último, tenemos las chapas revestidas en cinc-aluminio, que son una
alternativa para el rendimiento térmico del techo. Todas estas chapas tienen como característica relevante
que combinan la estética, el confort y la duración.

43
Marcel Pochulu

3.3. Aproximaciones matemáticas al problema


Iniciamos con la resolución del problema, por tratarse de una cuestión geométrica y en el espacio, sería
apropiado que los estudiantes utilicen material concreto, lo cual ayudaría notablemente a construir modelos a
escala, como así también, validar estrategias y métodos propuestos. Para ello será necesario contar con
algunos tubos y planchas de cartón, cinta adhesiva, tijera y útiles de geometría (Figura 4). Anticipamos que la
actividad tiene como riqueza el hecho de poder usar viejos recursos didácticos (regla y compás, por ejemplo)
y la inclusión de tecnologías de la información y comunicación (TIC).

Figura 4: Material concreto para la resolución del problema

Situándonos en el problema propuesto sabemos que habrá que hacer un estudio de un caso particular, pues
no se dieron datos específicos. Eso nos lleva a imaginar una cubierta y, fundamentalmente, la pendiente que
tendrá. Si bien es cierto que la pendiente del techo está determinada por el gusto del cliente, influye la
orientación de la casa y la zona climática de emplazamiento de la obra, como así también si una chapa cubre
el largo del techo o se requieren de solapes. De allí que, en zonas donde nieva o hay lluvias copiosas y
frecuentes, se impongan los techos inclinados. En tanto, en lugares con breves períodos de lluvia y vientos
moderados, funcionan bien las opciones con poca pendiente.
Más allá de estos detalles que vinculan cuestiones personales y técnicas, nuestro objetivo no es encontrar
una inclinación mínima, sino más bien, determinar un método que nos permita realizar un corte en la chapa
para atravesar un caño cilíndrico. Notemos que no tendríamos como caso particular un techo con cubierta de
chapa que se encuentre absolutamente horizontal, pues eso solo es posible con una losa.
Por consiguiente, escogeremos una pendiente para el techo y, preferentemente, es aconsejable que sea
pronunciada para que se advierta más rápidamente la complejidad a la que nos enfrentamos. A su vez,
tendremos que definir el tipo de chapa que tendrá la cubierta. En este punto haremos una primera
simplificación del problema e imaginaremos que es absolutamente plana. También podríamos suponer que la
cubierta tiene una chapa trapezoidal y debemos hacer la perforación en una región que carece de cresta u
onda.
Fijadas las condiciones iniciales, el desafío será efectuar una perforación en la chapa (cartón en el modelo)
de tal forma que el caño utilizado como tubería lo atraviese sin dejar espacio sobrante (Figura 5).

44
3. Patrón de corte en cubiertas de chapas para la salida de caños y tuberías

Figura 5: Tubería atravesando una cubierta plana


Los alumnos logran advertir, ya sea por ensayo y error, que la perforación no puede ser circular y resulta
“algo mayor”. Una primera hipótesis es que se requiere hacer un círculo cuyo diámetro es mayor al del tubo y
depende de la inclinación del techo (Figura 6), lo cual puede constatarse con el modelo en cartón que no es
válido. Notemos que el diámetro del círculo a realizar en la cubierta que suponen los estudiantes puede
calcularse por trigonometría (si disponen de ese conocimiento) o realizando un dibujo a escala con un
software o en papel. Las posibilidades de estrategias son variadas y dependerá mucho de la gestión de la
clase que realice el profesor. El empleo de diversas estrategias de enseñanza permite a los docentes lograr
un proceso de aprendizaje activo, participativo, de cooperación y vivencial en los estudiantes.

Figura 6: Tubería atravesando una cubierta plana, con perforación realizada

45
Marcel Pochulu

Superados los errores e inconvenientes presentados anteriormente, se logra la convicción en los estudiantes
de que la perforación no es circular, sino que tiene forma elíptica. Esto puede verse, incluso, colocando agua
en un vaso cilíndrico e inclinándolo, pues el nivel del agua en la superficie materializará la elipse (Figura 7).

Figura 7: Elipse en la superficie de un vaso con agua


De la elipse logramos conocer varios elementos, entre ellos: eje mayor, eje menor y vértices (Figura 8).

Figura 8: Elementos de la elipse


Además, si el caño tiene un diámetro de 10 cm, y la cubierta una inclinación o pendiente 𝛼 = 60º, entonces
resulta (prescindiendo de unidades de medida):
𝐸𝑗𝑒 𝑚𝑒𝑛𝑜𝑟 = 10

46
3. Patrón de corte en cubiertas de chapas para la salida de caños y tuberías

10
𝑏= =5
2
𝜋 10 10
cos ( ) = ⇒ 2𝑎 = = 20 ⇒ 𝑎 = 10
3 2𝑎 0.5
Con estos datos podemos calcular la distancia focal:

𝑐 = √102 − 52 = 5√3
Nuestro propósito será trazar una elipse en un patrón, el cual podremos trasladar posteriormente a la chapa.
La dificultad que se encuentra está en cómo hacerlo y de allí surgen diferentes estrategias. Es relevante en
este punto destacar que la riqueza de la actividad está en contar con diferentes métodos y estrategias, en
lugar de quedarnos con uno de ellos por considerarlo el más fácil o comprensible. La búsqueda de métodos
de trazado de elipses puede buscarse en Internet y justificarse los procedimientos en la clase de matemática.
Así podríamos tener las siguientes estrategias de construcción de patrones para el corte en la chapa:
Estrategia 1: Apelando a nuevos recursos, en nuestro caso GeoGebra, podemos marcar tres puntos de la
elipse: los dos focos y uno de los vértices del eje menor. Si usamos las denominaciones que dimos en la
Figura 8, serían los focos que llamaremos 𝐹1 y 𝐹2 , y el punto C. Posteriormente se puede trazar la elipse,
pues el software lo permite al conocer estos tres elementos. Aunque parece sencillo el procedimiento, es
necesario denotar adecuadamente los puntos. Si bien tenemos infinitas posibilidades, podemos designarlos
de la siguiente manera:
𝐹1 = (−5√3, 0)
𝐹2 = (5√3, 0)
𝐶 = (0, 5)

Figura 9: Trazado de elipse con software conociendo los focos y un vértice menor
Para obtener el patrón de corte que será trasladado a la chapa es necesario realizar una impresión a escala
de la elipse, pues las unidades que otorga el programa no corresponden a medidas particulares. Imprimir a
escala un dibujo demanda toda una serie de acciones que omitimos en la resolución del problema.
Estrategia 2: Semejante a la anterior, pero en lugar de calcular las coordenadas de los focos en forma
algebraica, lo hacemos geométricamente al conocer los dos vértices del eje mayor y un vértice del eje menor.
Esta construcción puede hacerse con software o con regla y compás, aunque la determinación de la elipse la
realizaremos (por ahora) con GeoGebra.

47
Marcel Pochulu

Trazamos el eje mayor ̅̅̅̅


𝐴𝐵 , el punto medio 𝑂 y el punto 𝐶. Con centro en 𝐶 trazamos una circunferencia de
radio al semieje mayor (medida de 𝐴𝑂̅̅̅̅) que corta a este en 𝐹1 y 𝐹2 , focos de la elipse. Por ser 𝐶 centro de la
circunferencia de radio igual al semieje mayor se verifica efectivamente que:
̅̅̅̅̅
𝐹 ̅̅̅̅̅
1 𝐶 + 𝐹2 𝐶 = 2𝑎

Posteriormente, trazamos la elipse conociendo sus focos y un vértice menor (Figura 10). También tendremos
que imprimir a escala el dibujo para tener el patrón de corte (omitimos describir este proceso).

Figura 10: Búsqueda de focos y trazado de elipse con software conociendo los focos y un vértice menor
Estrategia 3: Trazado de la elipse mediante radios vectores. Este método podemos hacerlo con software o
en una plantilla de cartón para obtener el patrón de corte que haremos en la cubierta. Habrá que tener
presente la definición de elipse como lugar geométrico de los puntos del plano cuya suma de distancias a los
focos es igual a la longitud del eje mayor (2𝑎).

Figura 11: Trazado de la elipse mediante radio vectores

48
3. Patrón de corte en cubiertas de chapas para la salida de caños y tuberías

Marcamos puntos arbitrarios sobre el eje mayor. Cuanto mayor sea el número de puntos, mayor será la
precisión del trazado de la elipse que deberá realizarse, o bien a mano alzada o usando el software (por
ejemplo, elipse conociendo 5 puntos).
En nuestro caso, hemos marcado los puntos 𝐷, 𝐸, 𝐹, 𝐺, 𝐻, 𝐼, 𝐽, 𝐾 (Figura 11). El procedimiento es iterativo,
así que explicaremos uno de ellos nada más. Empecemos con el punto 𝐷.
Con centro en 𝐹1 trazamos una cincunferencia de radio igual a la medida de ̅̅̅̅ 𝐴𝐷 y con centro en 𝐹2 una
̅̅̅̅. La intersección de estas dos cincunferencias determina
circunferencia con radio igual a la medida de 𝐵𝐷
dos puntos que están situados sobre la elipse. Del mismo modo procedemos con el punto 𝐸 hasta completar
con el conjunto de puntos que nos dará una idea aproximada de la elipse.
Estrategia 4: Método de intersección de rectas o intersección de haces proyectivos. Para ello construimos un
rectángulo en el cual la elipse se inscribe. Posteriormente dividimos el eje mayor y uno de los lados del
paralelogramo, paralelo al eje menor, un número cualquiera de partes. La división del eje mayor y del lado del
paralelogramo tiene que ser la misma (Figura 12).
Unimos los puntos C y D del eje menor con todas las divisiones efectuadas sobre el eje mayor y con las
divisiones efectuadas sobre los lados contrarios del rectángulo que estén entre ellos y el eje mayor. Las
intersecciones entre rectas correspondientes determinan puntos de la elipse que se delineará como lo
indicamos en la estrategia anterior.

Figura 12: Trazado de la elipse mediante intersección de haces proyectivos

Estrategia 5: Método de proyección de puntos o de afinidad entre la circunferencia principal y la elipse. En


este caso tenemos que dibujar dos circunferencias de diámetros iguales a los ejes de la elipse y centro en O
(Figura 13). Trazamos varios diámetros comunes a ambas circunferencias. Por los puntos de intersección de
estos diámetros con la circunferencia mayor o circunferencia principal, trazamos normales al eje mayor.
Posteriormente trazamos normales al eje menor donde estos diámetros corten a la circunferencia de radio
menor. Las intersecciones correspondientes entre sí de estas perpendiculares trazadas determinan puntos
de la elipse, que quedará delineada a mano alzada o usando el software. La construcción se basa en una
propiedad, la afinidad existente entre la circunferencia de radio mayor y la elipse, donde el eje de afinidad
coincide con el mayor de la elipse y la dirección de afinidad es normal a este.

49
Marcel Pochulu

Figura 13: Trazado de la elipse por proyección de puntos


Estrategia 6: Método del jardinero. Recibe esta denominación porque permite trazar en el suelo elipses de
gran tamaño. Para ello se colocan clavos, alfileres o chinches en los focos y atado a ellos, un hilo cuya
longitud libre sea igual a la medida del eje mayor (Figura 14).

Figura 14: Trazado de la elipse por método del jardinero


Luego se toma un lápiz o marcador y se lo coloca manteniendo tenso el hilo. Con la cuerda tensa se mueve
el lápiz o material de dibujo rodeando por completo los dos focos hasta dibujar la elipse. Es interesante que
los alumnos reflexionen sobre la definición de elipse a la vista de esta construcción.
Estrategia 7: Trazado de la elipse por envolventes. Determinamos la circunferencia principal y sobre ella
marcamos un punto 𝑃 (Figura 15). Unimos el punto 𝑃 con uno de los focos (𝐹1 en nuestro caso) y

50
3. Patrón de corte en cubiertas de chapas para la salida de caños y tuberías

determinamos la perpendicular al segmento ̅̅̅̅̅


𝑃𝐹1 que pase por 𝑃, la cual es una recta tangente a la elipse. La
construcción se basa en la propiedad que establece que la circunferencia principal de una elipse es el lugar
geométrico de los pies de las perpendiculares trazadas desde los focos a las tangentes, a la elipse.
Si repetimos esta operación se obtiene una serie de tangentes que envuelven a la elipse. En nuestro caso,
apelando a nuevos recursos, se puede activar un rastro (Figura 15) o buscar el lugar geométrico. Para este
último caso será necesario tener un punto sobre la elipse que se encuentre en la recta perpendicular al
segmento ̅̅̅̅̅
𝑃𝐹1 .

Figura 15: Trazado de la elipse por envolventes


Estrategia 8: Mediante circunferencia principal. Trazamos la circunferencia principal y sobre ella un punto 𝑃
(Figura 16). Marcamos la recta ̅̅̅̅̅
𝑃𝐹1 y la intersección de ella (punto 𝐸) con la circunferencia principal.

Figura 16: Trazado de la elipse mediante circunferencia principal


Seguidamente trazamos la recta EO̅̅̅̅ y determinamos el punto G que es la intersección con la circunferencia
̅̅̅̅ que pase por 𝐹1 y la recta PG
principal. La intersección de una paralela a EO ̅̅̅̅ nos dará un punto que

51
Marcel Pochulu

pertenece a la elipse. El trazado final de la elipse lo podemos hacer mediante software (cónica por 5 puntos)
o a mano alzada después de haber determinado varios puntos de la elipse.
Notemos que al determinar un punto de la elipse, podemos encontrar 3 más por reflexiones (centrales y/o
axiales) como vemos en la Figura 17.

Figura 17: Determinación de puntos de la elipse a partir de uno dado

No es nuestra intención agotar las posibilidades de construcción de elipses, pero sí mostrar que existen
variadas estrategias y cada una de ellas involucra mucha riqueza matemática. En la sección de perspectivas
de trabajo matemático señalamos algunas estrategias más que pueden ser consideradas en la clase. En este
sentido, Beltrán (2015, p.99) expresa que “sería significativo que los estudiantes llegaran a interactuar con las
cónicas desde diferentes puntos de vista, ya que esto les permitiría vislumbrar algunas de sus propiedades”.
Tenemos hasta el momento métodos para realizar el patrón de corte, pero sobre una superficie plana. ¿Qué
ocurre si el corte no coincide sobre la parte plana de la chapa? Para dar una respuesta a este interrogante,
tendremos que tomar casos particulares y posteriormente buscar generalizar el método.
Imaginemos que tenemos una chapa de perfil trapezoidal (Figura 18) y que la elipse debe ser trazada una
parte sobre la cresta y el resto en un valle.

Figura 18: Perfil de una chapa trapezoidal

Tomemos un caso particular de una chapa trapezoidal (Figura 19) e imaginemos que la sección denominada
con A de la elipse apoya sobre la cresta y la sección B en el valle. Entonces, la sección C, que es plana y

52
3. Patrón de corte en cubiertas de chapas para la salida de caños y tuberías

tiene un ancho de 15 mm pasa a tener el tamaño de la sección D, de 38 mm. El ancho de la sección D


equivale a la medida de la hipotenusa del triángulo rectángulo que se forma entre la cresta y el valle, y
podemos obtenerlo por aproximación al deformar la figura C.

Figura 19: Patrón de corte de la elipse sobre una chapa trapezoidal


Ya tenemos un método para obtener el patrón definitivo de corte; resta establecer la cantidad de crestas
sobre las que se apoya el mismo y el procedimiento a emplear es iterativo. Para el trazado y marcado final
del patrón de corte habrá que tomar la precaución que los límites de las zonas ampliadas (diámetros
conjugados de la elipse) coincidan con las aristas de las crestas y valles de la chapa.
¿Qué ocurre si el perfil es ondulado o sinusoidal? Aunque a simple vista parecería más complejo, solo es una
extensión del método anterior. El perfil de una chapa ondulada o sinusoidal se representa en la Figura 20.

Figura 20: Perfil de una chapa ondulada o sinusoidal

53
Marcel Pochulu

Si puntualizamos el procedimiento, tendríamos que:


1. Trazar los diámetros conjugados que coinciden con las líneas de crestas y valles de la chapa. Estos
diámetros estarán distanciados una medida equivalente a la mitad del paso que llamaremos 𝑝 (ver
Figura 20). De este procedimiento quedarán 𝑛 regiones de ancho 𝑝/2 y a lo sumo 1 o 2 regiones
de un ancho menor (son las que se encuentran en los laterales de la elipse y que contienen a los
vértices del diámetro menor) que designamos con 𝑟 y 𝑠 (ver Figura 21).

Figura 21: Patrón de corte para una chapa ondulada o sinusoidal

2. Calcular, por aproximación, medición o analíticamente (si se disponen de los conocimientos en este
último caso) la longitud de la curva que une el máximo de la cresta y el mínimo de un valle.
Designamos con 𝐿 a esta longitud. Esto nos indica que cada región de ancho 𝑝/2 pasará a tener
ancho 𝐿. En nuestro ejemplo tenemos 3 regiones de este ancho.
3. Determinar las nuevas dimensiones (𝑟′ y 𝑠′) que tendrán las dos regiones menores de ancho 𝑟 y 𝑠.
Podemos hacer este cálculo aproximado planteando proporciones:

𝐿 𝑟 𝑟∙𝑝 𝐿 𝑠 𝑠∙𝑝
= ⇒ 𝑟′ = = ⇒ 𝑠′ =
𝑝/2 𝑟′ 2𝐿 𝑝/2 𝑠′ 2𝐿

4. Establecer cuánto hay que deformar el plano en la dirección del eje menor de la elipse para obtener
el patrón definitivo. Designaremos con 𝐷 a la longitud final que tendrá el patrón de corte en la
dirección de eje menor de la elipse. En consecuencia, habrá que transformar el plano que contiene a
la elipse de tal forma que se conserve la longitud del eje mayor, mientras que el eje menor pasará a
medir una longitud 𝐷, la cual calculamos del siguiente modo:
𝑟∙𝑝 𝑠∙𝑝
𝐷= + 3𝐿 +
2𝐿 2𝐿
Para el trazado y marcado final del patrón de corte habrá que tomar la precaución de que uno de los
diámetros conjugados de la elipse coincida con una arista de la cresta o del valle de la chapa.
Hasta aquí llegamos con el desarrollo matemático del problema. Trabajando con los estudiantes, quedaría
por verificar si el procedimiento propuesto resulta apropiado tomando un caso concreto en pequeña escala,
usando cartones u otro material.

54
3. Patrón de corte en cubiertas de chapas para la salida de caños y tuberías

3.4. Perspectivas de trabajo matemático con el problema


Sin lugar a dudas el problema permite un sinnúmero de derivaciones y profundizaciones. Entre ellas tenemos
las posibles construcciones de elipses y sus instrumentos. Por ejemplo:
- La elipse como caso particular de hipotrocoide. Un hipotrocoide es una curva plana que describe un
punto vinculado a una circunferencia generatriz que rueda dentro de una circunferencia directriz,
tangencialmente.
- Método de la tarjeta, elipsógrafo, compás elíptico, Trasmallo de Arquímedes, compás de
Arquímedes o Trammel of Archimedes (Ibañez, 2002). La palabra “trammel”, si bien es inglesa,
proviene del latín y significa restricción o traba, y se la relaciona con red de pescar. De la misma raíz
es la palabra trasmallo que se utiliza para designar una red de pescar.
- Elipse y elipsógrafo de Van Schooten. Explicaciones más detalladas se encuentran en Beltrán
(2015) y Cortés, Númez y Morales (2013).
- Anamorfosis de una circunferencia en una elipse. Consiste en la transformación o deformación del
plano. La técnica de anamorfosis consigue crear una ilusión óptica usando conocimientos de
matemática y perspectiva. Se popularizó con el desarrollo de 3D Street Art o Stret Painting, donde
se crean imágenes en pavimentos o veredas que, vistas desde un determinado ángulo, consiguen
un efecto de perspectiva en tres dimensiones.
Por último y no menos importante, con el método de intersección de rectas o intersección de haces
proyectivos, surge la necesidad de división de un segmento en partes congruentes. Esto abre las puertas
para vincular con homotecia, Thales o construcción GLaD (Goldenheim, Litchfield and Dietrich).
3.5. Referencias bibliográficas
Beltrán, J. (2015). El elipsógrafo de Van Schooten: consideraciones para la enseñanza de la elipse. En C.
Samper, T. Merchán, L. Camargo, C. Flórez y J. Rojas (Edts.), Memorias del XXII Encuentro de
Geometría y sus Aplicaciones (pp. 95-102). Bogotá, Colombia: Universidad Pedagógica Nacional.
Cortés, J. ; Núñez, G. y Morales, C. (2013). Dinamización Matemática: Actividades de aprendizaje usando
elipsógrafos para apoyar el proceso de demostración en geometría analítica. Unión, 35, 115-134.
Ibañez, R. (2002). Secciones cónicas. Sigma, 20, 12-38.

55
4. Beneficios económicos y eficiencia de conversión en la cría de porcinos

4
Beneficios económicos y eficiencia de
conversión en la cría de porcinos

Marcel Pochulu

4.1. Introducción
La producción porcina se encuentra entre una de las más importantes en Argentina debido a la demanda que
realiza este sector y, fundamentalmente, porque resulta ser un negocio rentable que no involucra mucha
inversión en comparación con otros emprendimientos. Históricamente se ha desarrollado de forma
complementaria a la actividad agrícola buscando la diversificación de riesgos e ingresos y la transformación
de grano en carne (Rodríguez Fazzone y Figueroa, 2012). En este sentido Millares, Odetto, Pietrantonio y
Denegri (2012) expresan que:
La producción de cerdos es una de las formas más interesantes de transformar el cereal en
carne, ya que una cerda puede parir más de 2 veces al año y destetar más de 10 lechones de
promedio en cada camada, considerando que el cerdo es una especie muy prolífica que en corto
tiempo (24 semanas) llega a peso de faena (100-110 kg). En un sistema eficiente se puede
producir más de 2.500 kilos de cerdo en pie, por madre, por año. (p. 36)
Ahora bien, una persona que quiera dedicarse a la cría de cerdos para producción de carne seguramente se
cuestionará sobre el tiempo o el peso que deberían lograr los animales para maximizar los beneficios. La
respuesta no es fácil y se relaciona con un sinnúmero de factores, pero con certeza se ven involucrados el
precio al que puede venderse el animal (peso vivo o faenado) y el costo de producción. En este sentido, el
productor tomará decisiones de forma tal que dado el precio vigente en el mercado, y teniendo en cuenta sus
costos de producción, buscará que el beneficio que obtenga sea el máximo posible. Esto es:
Beneficio (B) = Ingresos por Ventas (V) – Costos Totales (C)
Si analizamos esta última expresión, notaremos que los Beneficios (o Utilidades) son máximos cuando se
alcanza la máxima diferencia entre los Ingresos por Ventas y los Costos Totales. Notemos que si la máxima
diferencia se da entre los Costos Totales y los Ingresos por Ventas, nos encontraremos en la situación de

57
Marcel Pochulu

mayor pérdida. Gráficamente esto lo vemos representado en la Figura 1, donde tendremos pérdidas cuando
los Costos Totales superen a los Ingresos por Ventas y hablaremos de ganancias, si ocurre a la inversa.

Figura 1: Curvas de Costos Totales, Ingresos por ventas y Beneficio

Otra manera de hacer este análisis deviene de considerar la Eficiencia de Conversión (EC) o Eficiencia de
utilización del alimento, la cual se la define como la cantidad de alimento consumido por unidad de peso de
animal producido, pudiendo expresarse en kg u otra medida de peso. Puntualmente Di Marco (2006) la define
como:
El término eficiencia de utilización del alimento se refiere a la cantidad de alimento por unidad de
ganancia de peso. Por ejemplo, una conversión 7:1 indica que se requieren 7 kg de alimento por
lograr un kilogramo de ganancia de peso. También se puede expresar como los gramos de
ganancia que permite un kilogramo de alimento. (p. 1)
Para cerrar esta sección, tomamos las expresiones de Castellano (2015), quien nos dice:
Es innegable que este negocio [alude a la cría de cerdos] es cada vez más marginal, debido a
las alzas de precio en dos de las principales materias primas: maíz y soya. Por lo tanto, el
productor responsable que quiere permanecer vigente en esta actividad teniendo márgenes de
utilidad aceptables y un crecimiento anual en su negocio, tiene un solo camino “LA
EFICIENCIA”. Quienes han optado por esta opción están vigentes en este negocio, mientras
que los que creyeron que la eficiencia es algo que a alguien se le ocurrió y que no dejaría de ser
una moda, han visto cómo sus utilidades se han visto mermadas hasta el punto de pensar en
cerrar la granja.
En este contexto, enunciamos la consigna del problema del siguiente modo:
Determinar el momento óptimo de faena y eficiencia de conversión que debería tener un porcino para que los
beneficios del productor sean máximos. Entendemos que la respuesta tiene que estar fundamentada a través
de un estudio matemático más que la búsqueda de esta información en Internet o posicionamientos
particulares que adoptan productores o expertos en el tema.

4.2. Contextualización de la situación problema


4.2.1. El mercado mundial de carnes
El mercado mundial de carnes fue cambiando a lo largo del tiempo. Wright, Harris y Linden (2016) marcan
tres períodos que se pueden establecer para la producción y consumo mundial de las principales carnes. El
primero va de la década de los 60 hasta mediados de los 70, donde la carne vacuna fue la de mayor

58
4. Beneficios económicos y eficiencia de conversión en la cría de porcinos

producción y consumo. Posteriormente la carne de cerdo logró mayor participación (a partir de 1975),
seguida por la carne vacuna y luego aviar. El último período, que arranca de 1990, donde la carne de cerdo
sigue siendo la de mayor participación, pero le sigue la carne aviar que desplazó a la carne vacuna al tercer
lugar.
Un resumen de las principales variables a tener en cuenta en el mercado mundial de carnes se contempla en
la Figura 2, la cual se adaptó con datos aportados por Wright, Harris y Linden (2016) y FIDA (2016). La última
columna contempla el consumo por habitante para Argentina, mientras que los demás datos corresponden a
valores internacionales.

Figura 2: Caracterización de la producción y consumo de carnes en el mundo

A nivel mundial, Estados Unidos, la Unión Europea, China y Brasil concentran el 60% de la producción de
carne vacuna y el 63% de la carne aviar. Argentina produce aproximadamente el 5% del total mundial para
carne vacuna.
En cuanto a la carne porcina, China concentra el 50% de la producción mundial, debido a la aplicación de
sistemas intensivos y la extensión por parte del gobierno de los subsidios a la producción de soja (Wright,
Harris y Linden, 2016). Le sigue Estados Unidos con un 20% de la producción mundial.
La carne de pollo continúa en producción y consumo a la de cerdo y es liderada por China, Estados Unidos y
Brasil (Errecart, 2014). Finalmente, la producción mundial de pescado supera a todas las demás carnes y
está liderada por China con más del 60% del total de la industria ictícola (Castro, 2017).
4.2.2. Eficiencia de conversión
La Eficiencia de Conversión representa la proporción de alimento que se convierte en carne y es la cifra más
difícil de calcular con exactitud. Sin embargo, se puede obtener un valor aproximado tomando como
referencia la cantidad de alimento adquirido en relación con la cantidad de peso vivo vendido.
Faner (2012) hace la distinción entre Eficiencia de Conversión individual y global, definiéndolas de la
siguiente manera:
La EC individual hace referencia a una categoría determinada o a un grupo de animales en
particular y generalmente se la utiliza con fines experimentales o de comprobación sobre la

59
Marcel Pochulu

marcha del grupo o para testear la calidad de algún alimento en función de las ganancias de
peso.
La EC global de la piara es, en definitiva, el valor que nos interesa conocer como técnicos
asesores de un establecimiento porcino. Debe calcularse tomando como datos la cantidad de
alimento consumido en todo el criadero durante un tiempo determinado previamente,
relacionándolo con la cantidad de kg de animal producido. Se hace imprescindible contar con los
registros de entrada de materias primas para la confección de los alimentos y registro de ventas
de todas las categorías. (p. 169)
Di Marco (2006) comenta que se aceptó por mucho tiempo que la estrategia para lograr una mayor eficiencia
estaba en seleccionar animales que tienen un apetito desmesurado (hiperfagia8), pensando, además, que se
diluiría en mayor proporción el costo de mantenimiento. Esto no es así necesariamente y existen pruebas
experimentales que lo muestran, donde la ganancia de peso no aumenta con el incremento del consumo. Es
posible encontrar animales que tuvieron la misma ganancia de peso, pero han consumido en un rango muy
diverso, como así también animales que, al consumir lo mismo, no logran la misma conversión de alimento.
Si nos imaginamos la curva de conversión de alimento en función del consumo de alimento que realiza un
animal hipotético, podríamos tener una representación gráfica como la que presentamos en la Figura 3.
Advertimos que existen diferentes momentos que valen la pena comentar. Un primer momento se presenta
cuando tenemos valores negativos de la conversión de alimento, lo cual se interpreta como pérdida de peso
del animal con una conversión de alimento mala, la cual coincide con un consumo bajo de alimento por parte
del animal.

Figura 3: Curva de conversión de alimento en función del consumo de alimento

Un segundo momento se presenta durante el período de mantenimiento del animal, donde la conversión de
alimento resulta apropiada y con una tasa de crecimiento muy buena. En este caso hablaremos de un
aumento de la eficiencia.
Un tercer momento es cuando la conversión de alimento comienza a disminuir su tasa de crecimiento. Es
decir, aumenta el consumo de alimento diario, pero sin aumentar demasiado el peso del animal. Diremos en
este caso que hay una pérdida de la eficiencia.

8 Término que proviene del griego hiper- (abundancia, exceso) y -fagia (comer), es una situación caracterizada por un aumento
excesivo de la sensación de apetito e ingestas descontroladas de alimentos, sin razón aparente.

60
4. Beneficios económicos y eficiencia de conversión en la cría de porcinos

4.3. Aproximaciones matemáticas al problema


Para abordar el problema es necesario tomar algunas decisiones sobre las variables a considerar.
Abordaremos el problema en dos etapas. En la primera, estudiaremos en qué momento es óptimo faenar un
cerdo para lograr máximos beneficios. En la segunda etapa, estudiaremos la conversión alimenticia y en qué
momento sería oportuno faenar un cerdo. Con los resultados de las dos etapas podremos cruzar información
e interpretarla en el contexto de la modelización matemática realizada.
Iniciamos con el estudio del momento óptimo de faena para maximizar beneficios. El abordaje lo haremos de
dos maneras diferentes, pues en cada una de ellas la actividad matemática del alumno es diferente.
Podríamos simplificar el problema y considerar que los costos totales estarán conformados por el consumo
de balanceado que haría un cerdo (sin incluir otro tipo de alimento, como leche materna, pasturas, etc.). Esta
decisión guarda correspondencia con lo expresado por el informe de FIRA (2016), quienes establecen que el
alimento es un factor importante en la porcicultura y representa el principal costo (aproximadamente del
71%). Los ingresos por ventas los reduciremos a lo ingresado, en términos de dinero, por un cerdo en el
momento de ser vendido. En consecuencia, no consideraremos en los costos totales las erogaciones que
devienen de:
- La infraestructura y el emplazamiento del lugar de cría, como así tampoco su mantenimiento.
- Servicios (agua, electricidad, gas, teléfono, etc.). Asumimos que se dispone de un correcto
suministro, tanto en cantidad como en calidad.
- Traslado de un cerdo para su venta (costos de comercialización).
- Mano de obra del personal especializado para la cría y mantenimiento.
- Impuestos provinciales y nacionales que devienen de la cría y explotación de porcinos.
- Adquisición del cerdo que será utilizado para la cría y engorde.
Establecidas las decisiones sobre las variables a considerar, nos resta buscar información fiable sobre el
consumo de alimento y ganancia de peso diaria de un cerdo. Nuestro propósito (primera resolución experta)
será establecer dos modelos funcionales que están conformando la ecuación de Beneficios. El primero de
ellos será el que relacione el peso de un cerdo con el tiempo transcurrido desde su nacimiento. El segundo
modelo será el que relaciona el consumo acumulado de alimento con el tiempo transcurrido desde que nació
el cerdo.
Tomaremos los datos que propone Faner (2012, p. 182), donde establece parámetros ideales para la cría de
un porcino genérico, sin importar su raza.

Tabla N° 1. Parámetros ideales para la cría de porcinos

Edad Peso del cerdo (en kg) Consumo de alimento (en kg)
Ganancia Peso
Días Semanas Diario Acumulado
diaria acumulado
0 0 1.400
7 1 0.200 2800
14 2 0.242 4.400 0.029 0.2
21 3 0.272 6.300 0.043 0.5
28 4 0.286 8.288 0.329 2.8
35 5 0.328 10.605 0.386 5.5
42 6 0.386 13.314 0.571 9.5
49 7 0.471 16.611 0.800 15.1
56 8 0.571 20.608 0.986 22.0
63 9 0.643 25.074 1.143 30.0
70 10 0.700 30.030 1.314 39.2
77 11 0.735 35.343 1.500 49.7

61
Marcel Pochulu

84 12 0.771 40.572 1.729 61.8


91 13 0.807 46.228 1.929 75.3
98 14 0.835 52.038 2.157 90.4
105 15 0.871 58.170 2.400 107.2
112 16 0.900 64.400 2.643 125.7
119 17 0.928 67.711 2.829 145.5
126 18 0.971 77.742 3.071 167.0
133 19 0.985 84.588 3.229 189.6
140 20 1.000 91.700 3.386 213.3
147 21 1.000 98.637 3.557 238.2
154 22 1.014 105.798 3.743 264.4
161 23 1.000 112.700 3.929 291.9
168 24 0.985 119.616 3.943 319.5
175 25 0.971 126.525 3.917 346.9

Si pensamos que un cerdo es un ser vivo, llegará un momento en que estará limitado tanto en espacio como
en recursos, y comenzará a limitar la tasa de crecimiento y, por lo tanto, el peso máximo que logre alcanzar.
Para este caso será apropiado utilizar el modelo logístico, el cual está relacionado con el modelo exponencial
para valores "pequeños" o iniciales de la variable de entrada.
El modelo logístico se caracteriza por disminuir su tasa de crecimiento a medida que va aumentando el
tamaño de la población para finalmente lograr una estabilización. Su gráfica se parece a una "S" estirada,
denominada sigmoidea o sigmoide, donde logra estabilizarse hacia un valor límite. Este modelo fue
propuesto por Pierre Francois Verhulst en el año 1838.
De todos modos propondremos otro modelo funcional, además del logístico, pues resulta frecuente que los
estudiantes no tengan en cuenta este último. En este punto, es interesante el análisis que emerge en uno u
otro modelo matemático y las limitaciones que tienen los mismos.
Si P nos representa al peso acumulado en kilogramos de un cerdo desde su nacimiento y t el tiempo que
transcurre, en días, los dos modelos de ajustes que podríamos considerar apropiados son los siguientes.

Figura 4: Modelos de ajuste del peso acumulado del cerdo en función de los días transcurridos

Ambos modelos funcionales resultan adecuados si buscamos interpolar valores. Incluso el modelo polinómico
de tercer grado tiene un mejor coeficiente de determinación. La dificultad se presenta al extrapolar datos,

62
4. Beneficios económicos y eficiencia de conversión en la cría de porcinos

pues en el modelo polinómico se tiene un marcado aumento del peso del cerdo al transcurrir los días,
mientras que en el logístico, se estabiliza el peso al transcurrir el tiempo, lo que es más razonable.
Pasemos ahora a encontrar un modelo funcional que relacione el consumo acumulado de balanceado con el
tiempo. Si con A representamos el consumo acumulado de balanceado (en kilogramos) y con t, el tiempo (en
días), resulta adecuado un modelo polinómico de grado 2.

Figura 5: Modelo de ajuste del consumo acumulado de balanceado en función de los días transcurridos

Podríamos notar que un modelo polinómico de grado 3 o mayor no mejorará sustancialmente el modelo y lo
entorpece al aumentar la cantidad de constantes que intervienen en el mismo. A su vez, tratar de extrapolar
datos, considerando valores inferiores a los 14 días, nos arrojaría valores no apropiados (como por ejemplo,
que para un tiempo igual a cero, un cerdo habría consumido aproximadamente 5 kg de balanceado).
Con los modelos funcionales obtenidos anteriormente podemos encontrar la función de Beneficio, de tal
forma que dependa del tiempo que demanda la cría y engorde del cerdo. Así tendríamos:

Ingresos por Ventas = (Peso en función del tiempo). (precio de venta por kg)
Costos Torales = (Consumo acumulado de balanceado en función del tiempo). (precio de costo por kg)

Queda por buscar el precio que tiene el cerdo vivo en un mercado, lo cual se logra encontrar con relativa
facilidad en Internet (por ejemplo, accediendo al Mercado de Hacienda de Liniers, en el caso de Argentina).
También tendremos que determinar el costo del balanceado por kilogramo. Para este último, las opciones
son muchas y es interesante que los estudiantes tomen criterios para establecer un valor y las limitaciones o
hipótesis que adoptan. Por ejemplo, no es lo mismo comprarlo en bolsas de 50 kilogramos que a granel y por
grandes cantidades. Además, habría que incorporar el costo del transporte que llevaría el mismo. Para
simplificar una vez más el problema, no tendremos en cuenta este último costo.
Consideremos que el precio de venta de un kilogramo de cerdo vivo sin tipificar se encuentra en el orden de
U$S 1.40 y que el costo del balanceado, por kilogramo y consiguiéndolo a granel, es de U$$ 0.30.
Destacamos que estamos haciendo otra simplificación del problema, pues el costo del cerdo vivo guarda
relación con la edad, como así también, el valor del kilogramo de balanceado que requiere para cada etapa
de su crecimiento (iniciador, desarrollo y terminador, por citar un ejemplo).

63
Marcel Pochulu

Recordemos que para el peso del cerdo en función del tiempo habíamos propuesto dos modelos funcionales
(uno polinómico de grado 3 y otro logístico). En consecuencia, tendremos dos modelos funcionales para los
Beneficios.
Para la obtención del valor máximo relativo que tiene cada modelo funcional podemos apelar a los nuevos
recursos (GeoGebra en nuestro caso) o herramientas del Cálculo Diferencial, si es que los estudiantes
disponen de ellas. Tendríamos una primera aproximación al problema, el cual se muestra en la Figura 6.

Figura 6: Modelo de ajuste del Beneficio obtenido por la cría y venta de un cerdo

Los modelos propuestos no brindan la misma información ante el cuestionamiento que nos formulamos para
el problema. En uno de ellos se debería faenar al cerdo a los 160 días, arrojando una utilidad de U$S 71,
mientras que en el otro, a los 187 días y con un beneficio que llega a U$S 74 aproximadamente. Si buscamos
el peso alcanzado por el cerdo en cada modelo, arroja 112 kilos y 140 kilos respectivamente.
Analizando estos datos a la luz de las investigaciones realizadas, encontramos que el informe de
Fideicomisos Instituidos en Relación con la Agricultura (FIRA, 2016) establece que, en Argentina, la edad de
salida de un cerdo se produce a los 159.29 días y con un peso de 113 kg. Estos valores guardan relación con
el modelo funcional que involucró el crecimiento logístico para relacionar el peso de un cerdo y el tiempo
transcurrido desde su nacimiento.
Por otro lado, si se busca información para validar el modelo, diversos blog y sitios web dedicados a la cría
de cerdos expresan que normalmente el mercado busca animales de hasta unos 110 kg de peso vivo y de 23
semanas de edad (161 días). Edades y pesos posteriores a los valores expresados conllevan a que el cerdo
empiece a convertir más grasa que músculo y no sean solicitados por el mercado. Obviamente que estos
estándares dependen de la raza de los cerdos. Toda esta información nos lleva a desacreditar el modelo
funcional asociado a Beneficio que involucra la polinómica de grado 3 para el peso del cerdo con relación al
tiempo.
Algo sumamente relevante de esta sección es analizar la brecha que existe entre el precio del kilogramo de
balanceado y el precio del kilogramo de cerdo vivo. Se puede constatar que, mínimas variaciones entre ellos
(más elevado el precio del kilogramo de balanceado y/o menor valor del precio por kilogramo vivo del cerdo),
provocan grandes variaciones para determinar el momento óptimo de faena y el beneficio obtenido.
Otro modo de abordar el proceso de modelización sería complementar la Tabla 1 con los costos por
balanceado y los ingresos por ventas del cerdo. Posteriormente, podríamos hacer un ajuste funcional y
determinar un valor máximo. Empecemos por completar la tabla (ver Tabla 2).

64
4. Beneficios económicos y eficiencia de conversión en la cría de porcinos

Tabla N° 2: Análisis de beneficio en la cría y engorde de un cerdo


Peso Ingresos Consumo Costos por
Beneficio
Días acumulado por Ventas acumulado de balanceado
(en U$S)
(en kg) (en U$S) balanceado (en kg) (en U$S)
0 1.40 1.96 0.00 0.00 1.96
7 2.80 3.92 0.00 0.00 3.92
14 4.40 6.16 0.20 0.06 6.10
21 6.30 8.82 0.50 0.15 8.67
28 8.29 11.60 2.80 0.84 10.76
35 10.61 14.85 5.50 1.65 13.20
42 13.31 18.64 9.50 2.85 15.79
49 16.61 23.26 15.10 4.53 18.73
56 20.61 28.85 22.00 6.60 22.25
63 25.07 35.10 30.00 9.00 26.10
70 30.03 42.04 39.20 11.76 30.28
77 35.34 49.48 49.70 14.91 34.57
84 40.57 56.80 61.80 18.54 38.26
91 46.23 64.72 75.30 22.59 42.13
98 52.04 72.85 90.40 27.12 45.73
105 58.17 81.44 107.20 32.16 49.28
112 64.40 90.16 125.70 37.71 52.45
119 67.71 94.80 145.50 43.65 51.15
126 77.74 108.84 167.00 50.10 58.74
133 84.59 118.42 189.60 56.88 61.54
140 91.70 128.38 213.30 63.99 64.39
147 98.64 138.09 238.20 71.46 66.63
154 105.80 148.12 264.40 79.32 68.80
161 112.70 157.78 291.90 87.57 70.21
168 119.62 167.46 319.50 95.85 71.61
175 126.53 177.14 346.90 104.07 73.07

El análisis de la Tabla 2 no muestra que tengamos un máximo, el cual se corresponde con la tendencia que
marca la representación gráfica de las variables involucradas, como puede verse en la Figura 6. Esto podría
indicarnos que no se llegó al momento óptimo de faena y que es necesario seguir criando y engordando al
cerdo, lo cual vimos que no se condice con lo que ocurre en un entorno real.

Figura 7: Diagrama de dispersión del Beneficio con relación al tiempo


65
Marcel Pochulu

De todos modos, este comportamiento entre las variables no puede generalizarse, pues como mencionamos
anteriormente, una variación entre la brecha que existe entre el precio del kilogramo vivo de cerdo y el precio
del kilogramo de balanceado nos llega a notables cambios. Por ejemplo, si consideramos un aumento de
0.10 U$S en el precio del kilogramo de balanceado, el diagrama de dispersión del Beneficio obtenido por la
cría y venta de un cerdo en relación con el tiempo sería el contemplado en la Figura 8.

Figura 8: Nuevo diagrama de dispersión del Beneficio con relación al tiempo

Para este último caso el máximo beneficio se alcanza para los 140 días, el cual corresponde a los 91.70 kg
(valor que obtenemos de la Tabla). Estos valores se encuentran entre los estándares establecidos por los
criadores de porcinos.
Analicemos ahora la Eficiencia de Conversión (EC), la cual entendemos como la proporción de alimento que
se convierte en carne. No obstante, para el cálculo interesa la cantidad de materia seca, que es entendida
como la cantidad de alimento menos el agua contenida en el mismo. En otras palabras, si a una cantidad de
alimento se la somete a calor moderado para que se evapore el agua, lo que queda es la porción de materia
seca de ese alimento. Por lo tanto, para el cálculo de la EC resulta:

𝐶𝑜𝑛𝑠𝑢𝑚𝑜 𝑑𝑒 𝑚𝑎𝑡𝑒𝑟𝑖𝑎 𝑠𝑒𝑐𝑎


𝐸𝐶 =
𝐺𝑎𝑛𝑎𝑛𝑐𝑖𝑎 𝑑𝑒 𝑝𝑒𝑠𝑜 𝑣𝑖𝑣𝑜

Como en nuestro caso disponemos de la información referida a cantidad de balanceado, necesitamos


efectuar una conversión (no tenemos la cantidad de materia seca). Aceptaremos que el alimento balanceado
cuenta con un 89% de materia seca aproximadamente (Fernández Curi, 2013) y, en consecuencia, nuestra
fórmula corregida resulta:

0.89 ∙ 𝐶𝑜𝑛𝑠𝑢𝑚𝑜 𝑑𝑒 𝑏𝑎𝑙𝑎𝑛𝑐𝑒𝑎𝑑𝑜


𝐸𝐶 =
𝐺𝑎𝑛𝑎𝑛𝑐𝑖𝑎 𝑑𝑒 𝑝𝑒𝑠𝑜 𝑣𝑖𝑣𝑜

El cálculo de la EC para el período para el cual contamos con datos es el que está plasmado a continuación.

66
4. Beneficios económicos y eficiencia de conversión en la cría de porcinos

Tabla N° 3: Eficiencia de Conversión en la cria y engorde de un cerdo


Peso Ganancia de Consumo acumulado
Eficiencia de Conversión
Días acumulado peso vivo de balanceado (kg de balanceado/kg de cerdo)
(en kilogramos) (en kilogramos) (en kilogramos)
0 1.40
7 2.80
14 4.40 1.60 0.20 0.05
21 6.30 3.50 0.50 0.08
28 8.29 5.49 2.80 0.34
35 10.61 7.81 5.50 0.52
42 13.31 10.51 9.50 0.71
49 16.61 13.81 15.10 0.91
56 20.61 17.81 22.00 1.07
63 25.07 22.27 30.00 1.20
70 30.03 27.23 39.20 1.31
77 35.34 32.54 49.70 1.41
84 40.57 37.77 61.80 1.52
91 46.23 43.43 75.30 1.63
98 52.04 49.24 90.40 1.74
105 58.17 55.37 107.20 1.84
112 64.40 61.60 125.70 1.95
119 67.71 64.91 145.50 2.15
126 77.74 74.94 167.00 2.15
133 84.59 81.79 189.60 2.24
140 91.70 88.90 213.30 2.33
147 98.64 95.84 238.20 2.41
154 105.80 103.00 264.40 2.50
161 112.70 109.90 291.90 2.59
168 119.62 116.82 319.50 2.67
175 126.53 123.73 346.90 2.74

Interpretemos algunos resultados. Por ejemplo, consideremos el último valor de EC (2.74). ¿Qué información
nos brinda? Nos está diciendo que cuando el cerdo tiene 175 días de vida necesitó de 2.74 kilogramos de
balanceado para convertirlo en 1 kilogramo de peso vivo. Si analizamos el valor anterior (2.67) ¿Es una mejor
EC con respecto a 2.74? Es una mejor EC, porque nos indica que se necesita menos cantidad de alimento
para producir un kilogramo de animal vivo.
Del análisis de la Tabla 3 notamos que la EC aumenta progresivamente. Podríamos preguntarnos: ¿Se logra
estabilizar la EC en algún momento? ¿Conviene valores grandes o pequeños de la EC? ¿Cómo nos daremos
cuenta cuál es el valor óptimo de la EC?
Intentemos realizar una aproximación a los interrogantes formulados. La EC no se estabilizará con el correr
del tiempo mientras siga alimentándose el animal. Mejor será que lo analicemos sobre la fórmula de cálculo.

67
Marcel Pochulu

El consumo de balanceado irá aumentando con el tiempo, pero la ganancia de peso vivo irá disminuyendo a
medida que el animal logre el peso estándar para su raza. En consecuencia, el cociente tendrá un progresivo
aumento.
Si tenemos en cuenta el significado que tiene la EC, no nos conviene tener valores grandes de la misma, sino
más bien pequeños. El estado hipotético ideal sería igual a 1, donde 1 kilogramo de alimento se logra
convertir en 1 kilogramo de animal. Tengamos presente que los peces son los mejores convertidores de
alimento, generando 1 kg de pescado con algo más de 1 kg de alimento. Los bovinos, por otro lado, son los
peores convertidores, generando 1 kg de animal con 7 kg de alimento. En el medio tenemos al cerdo
(porcinos) y a los pollos (aves), con un factor de conversión de 3 y 2 respectivamente.
Todo este análisis nos lleva a reflexionar que quedarnos solo con el estudio de EC para determinar el
momento de faena resulta insuficiente. Es necesario tener en cuenta otras variables de mercado, como el
precio de venta del animal y los costos que demandan la producción.
No obstante, podemos analizar el valor obtenido en nuestro primer estudio (búsqueda de máximos
beneficios) y asociarlo con la EC, de tal forma que nos permita establecer si nos encontramos dentro de
valores estándares. Habíamos encontrado que era conveniente faenarlo a los 161 días para obtener
máximos beneficios y este valor se corresponde con una EC de 2.59, la cual es muy apropiada (por debajo
de los 3 establecidos como valor máximo).
4.4. Nuevos problemas a partir del problema inicial
Con el problema inicial se podrían proponer modelos más ajustados a la realidad y compararlos con los
establecidos en estudios previos referidos al tema. Por ejemplo, en el problema nos quedamos solamente
con los costos que devienen de la compra de alimento. No obstante, el trabajo realizado por FIRA (2016)
realiza un estudio más general y establece el costo de producción de un lechón destetado en algunos países
de Latinoamérica, durante el 2014, como se describe a continuación.

Tabla N° 4: Análisis de la Industria Porcina en Latinoamérica (FIRA, 2016, p. 12)

Argentina Bolivia Brasil Chile Colombia Ecuador México Promedio

Costo (U$S/lechón destetado) 26.7 29.3 33.6 30.5 53.6 38.3 48.7 36.9
Costo alimento (%) 67.5 70.6 72.0 71.0 71.5 72.4 69.4 71.0
Costo mano de obra (%) 13.0 9.0 10.7 7.7 5.1 6.5 10.0 8.3
Costo sanitario (%) 6.5 5.9 4.7 3.9 6.8 2.9 5.0 4.8
Costo genético (%) 2.0 3.8 2.5 1.6 2.4 0.5 1.5 2.1
Costo energía, calefacción (%) 3.5 1.1 3.8 1.0 2.7 2.0
Costo comercialización (%) 5.0 0.2 1.7 5.0 3.8 1.8 0.8 2.7
Otros costos (%) 2.5 9.4 8.5 7.8 7.9 14.9 11.8 9.2

La producción de cerdos muchas veces se asocia con la producción de maíz. Posiblemente la abundancia y
elevando valor nutritivo de este grano explica la fama que ha tenido en la alimentación de cerdos. Esteves y
Cervellini (1985) tuvieron presente esta situación y realizaron una prueba comparativa entre cerdos
alimentados con maíz y cerdos alimentados con balanceado. En una primera etapa trabajaron con 4 lotes de
8 cerdos cada uno (4 hembras y dos capones) con un peso inicial de 30 kg, que fueron alimentados con
balanceado marca Cargill, suministrado a discreción en comederos tolva. En una segunda etapa, cuando los
cerdos alcanzaron aproximadamente los 60 kg en la etapa anterior, dos lotes continuaron consumiendo
alimento balanceado ad libitum y los otros, exclusivamente maíz. Los datos de esta segunda etapa se
contemplan en la Tabla 5.

68
4. Beneficios económicos y eficiencia de conversión en la cría de porcinos

Tabla 5: Comparación entre alimentaciones durante el período de engorde


Alimentación a balanceado Alimentación a maíz
N° de cerdos 16 16
Peso inicial 60.917 kg 62.416 kg
Peso final 102.60 kg 99.75 kg
Días de prueba 42 56
Aumento por cerdo 41.683 37.084
Consumo total por cerdo 157.266 211.199
Con estos datos y los obtenidos del problema inicial, podríamos:
• Calcular EC en cada caso y formular una conclusión.
• Realizar un estudio económico para ambos grupos (Beneficio) indicando las limitaciones y
restricciones del modelo utilizado.
• Estimar la edad que tenían los cerdos al iniciar y finalizar la primera etapa del estudio realizado por
Esteves y Cervellini.
• Esteves y Cervellini (1985) relatan en su trabajo que los cerdos alimentados a maíz alcanzaron un
peso promedio de 89.166 kg a los 42 días de haber iniciado la segunda etapa. Con este dato y los
que tiene la Tabla 4, estimar de manera razonada el peso máximo promedio que alcanzarían los dos
lotes de cerdos alimentados a maíz.
4.5. Referencias bibliográficas
Di Marco, O. (2006). Eficiencia de utilización del alimento en vacunos. Revista Visión Rural, 13(61), 1-4.
Castellano, E. (2015). ¿Cuánto crece el cerdo en su etapa de engorde? [Archivo en línea]. Recuperado el 22
de marzo de 2016 de http://masporcicultura.com/cuanto-crece-el-cerdo-en-su-etapa-de-engorde/.
Castro, J. (2017). La producción mundial de pescado se industrializa. Clarín Rural. Disponible en:
https://www.clarin.com/rural/produccion-mundial-pescado-industrializa_0_Syn5VRrfZ.html
Esteves, R. y Cervellini, J. (1985). Comparación entre la alimentación de cerdos con maíz exclusivamente y
un alimento balanceado en el período de engorde. Revista de la Facultad de Agronomía de la
UNLPam, 1 (1-2), 113-115.
Errecart, V. (2014). Análisis del mercado mundial de carnes. San Martín, Buenos Aires: CERE-UNSAM.
Faner, C. (2012). Nutrición y alimentación: eficiencia de conversión. En J. Brunori, M. Rodríguez Fazzone y
M. Figueroa (Edts.), Buenas Prácticas Pecuarias para la producción y comercialización porcina
familiar (pp. 167-184). Buenos Aires: Organización de las Naciones Unidas para la Agricultura y la
Alimentación (FAO).
Fernández Curi, E. (2013). Formulación de alimentos balanceados y mejoramiento genético en ganado
lechero. Monsefú, Perú: Agrobanco
FIRA (2016). Panorama Agroalimentario – Carne de cerdo 2016. México: Dirección de Investigación y
Evaluación Económica y Sectorial.
Miazzo, D. y Pisani Claro, N. (2015). Carnes Argentinas: Actualidad, propuestas y futuro. Buenos Aires,
Argentina: FADA.
Millares, P.; Odetto, S.; Pietrantonio, J. y Denegri, D. (2012). Planificación y gestión productiva-comercial de
la actividad porcícola familiar. En J. Brunori, M. Rodríguez Fazzone y M. Figueroa (Edts.), Buenas
Prácticas Pecuarias para la producción y comercialización porcina familiar (pp. 35-60). Buenos
Aires, Argentina: FAO.
Rodríguez Fazzone, M. y Figueroa, M. (2012) Contexto socioeconómico del sector porcino en Argentina.
Enfoque para la implementación de buenas prácticas. En J. Brunori, M. Rodríguez Fazzone y M.

69
Marcel Pochulu

Figueroa (Edts.), Buenas Prácticas Pecuarias para la producción y comercialización porcina familiar
(pp. 35-60). Buenos Aires, Argentina: FAO.
Wright, C.; Harris, C. y Linden, J. (2016). El mercado mundial de las carnes. Disponible en
http://www.elsitioporcino.com/articles/2678/el-mercado-mundial-de-las-carnes/

70
5. Rentabilidad en la producción de pollos parrilleros

5
Rentabilidad en la producción de pollos
parrilleros

Marcel Pochulu
5.1. Introducción
El pollo parrillero actual es un ave mejorada genéricamente para producir carne en poco tiempo. Sus ciclos
se volvieron tan cortos (55 a 60 días) y con una alta productividad de carne, que les llevó a ser llamados
pollos “doble pechuga”. Esta denominación se debe a que la pechuga (músculos pectorales) se desarrolló
tanto con la genética que hoy conforma dos tercios del peso de la carcasa.
Sin embargo, los pollos parrilleros presentan características especiales en su desarrollo que obligan al
avicultor a manejar ciertas condiciones para lograr buenos resultados. Es necesario tener un conocimiento
básico para lograr buenos resultados: escoger una raza adecuada y su alimento, realizar controles sanitarios,
manejar eficientemente la explotación, entre otros factores. Es decir, genética, salud, manejo y nutrición son
los factores principales más importantes que afectan los resultados económicos de producción avícola.
El informe de FIRA (2016) expresa que entre 2006 y 2015 el consumo mundial de carne de pollo creció
notablemente debido a los altos precios de otras carnes. Entre los principales países consumidores, se
encuentran: Estados Unidos (1.1%), Japón (1.7%), China (2.8%), la Unión Europea y México (3.2% cada
uno), Brasil (3.5%), Rusia (5.1%), Argentina (6.1%) y la India (7.7%).
En cuanto a exportaciones, Brasil, Estados Unidos, la Unión Europea, Tailandia y China concentran casi el
90% de las mismas, mientras que en importaciones, el 46% lo concentran Japón, Arabia Saudita, México, la
Unión Europea e Iraq.
Por otra parte, el reporte de la OECD/FAO (2016) expresa que la carne de ave encabezará el crecimiento en
la producción mundial de carne, debido fundamentalmente al incremento en la demanda de esta proteína
animal. Esto llevaría a que el consumo de carne de ave represente dos tercios del consumo adicional del
total de carnes.
Entre los factores que le atribuyen a este crecimiento a corto plazo, se encuentran los bajos costos de
producción, un precio accesible del producto, la alta conversión alimenticia y el ciclo de producción más corto

71
Marcel Pochulu

de las aves. Estas variables seguramente fueron detectadas por muchos productores y se dio un notable
crecimiento de los establecimientos dedicados a la producción avícola. Al mismo tiempo, el acceso a fuentes
de información como Internet permitió que los interesados pudieran instruirse y compartir información.
Por ejemplo, en un blog dedicado a la discusión de temas de avicultura9, un forista consultó sobre el
consumo promedio de alimento por pollo que se requería hasta el sacrificio. Como mejor respuesta, otro
forista expresó que con un consumo de 3.5 kilos de alimento (desde la llegada del pollito hasta el momento
de faena), se lograba un pollo de 2 kilogramos (ya faenado) a los 40 días y con una conversión de 1.8. Aquí
es donde surge nuestra situación problema y formulamos la siguiente consigna:
Determinar el momento óptimo de faena que debería tener un pollo parrillero para que los beneficios del
productor sean máximos. Asimismo, comparar los valores obtenidos con los establecidos por los avicultores
que dan sus recomendaciones en Internet. Entendemos que la respuesta tiene que estar fundamentada a
través de un estudio matemático más que la búsqueda del momento óptimo de faena en Internet o
posicionamientos particulares que adoptan avicultores o expertos en el tema.

5.2. Contextualización de la situación problema


5.2.1. La genética y el crecimiento de los pollos
Es indiscutible el papel relevante que jugó la genética para mejorar los parámetros de rendimiento de los
pollos parrilleros. Seguramente si no hubiese intervenido la genética no se habrían alcanzado los niveles
actuales, como pueden verse en la Figura 1, con datos referidos al rendimiento de un pollo de engorde de la
línea Cobb500 (Cobb, 2015).

Figura 1: Rendimiento de un pollo de la línea Cobb500


John Hardiman, quien fue el director científico del programa de investigación y desarrollo que introdujo la
raza Cobb500 en los Estados Unidos, expresó en una entrevista:
Solamente mejorando la velocidad con la que crece un animal es que podemos mantener el
precio del pollo a un nivel razonable. Es la única manera que tenemos para mejorar la eficiencia.

9 Blog de avicultura cuya URL es https://www.engormix.com/avicultura/foros/cuanto-consideran-consumo-promedio-t2957/

72
5. Rentabilidad en la producción de pollos parrilleros

Si seleccionamos por tasa de crecimiento, también logramos aproximadamente la mitad de las


mejoras de la eficiencia alimenticia que logramos hoy. (Focus, 2013, p. 4)
No obstante, el crecimiento vertiginoso que lograron los pollos de engorde llevó a un mito: el uso de
hormonas. Numerosos sitios y portales de Internet se encargan de desterrar este mito que sobrevive y
expresan que aún aflora esporádicamente. Los expertos consideran que está basado en el desconocimiento
sobre cómo se crían, alimentan y qué base genética tienen los pollos hoy.
Entre las razones que Wright, Harris y Linden (2016) esgrimen sobre la no utilización de hormonas en la cría
de pollos de engorde se tienen:
- El uso es ilegal y existen controles muy estrictos de los organismos dedicados a la cría y explotación
de animales para que no se utilicen.
- La administración de hormonas de crecimiento en un pollo no conduce a un aumento del crecimiento
en carne. El crecimiento no es más que el resultado de una combinación muy compleja de funciones
metabólicas, las que dependen de una selección amplia de señales endocrinológicas.
- La administración de hormonas es muy difícil de realizar. No se podrían ingerir por vía oral porque
no cumpliría su efecto y debería ser inyectada. Inyectar a miles de pollos y con relativa frecuencia
muestra la imposibilidad práctica.
- El costo sería elevado. La hormona de crecimiento del pollo no se produce comercialmente, por lo
que su valor sería extremadamente alto para el valor del pollo en sí mismo.
- Tendría impacto negativo en el rendimiento del pollo. El pollo vive literalmente al borde de su
máximo metabólico, por lo que aumentar con hormonas la tasa de crecimiento duplicaría, triplicaría
e incluso cuadruplicaría la tasa de mortalidad a causa de estrés calórico.
- Requeriría actividad física. Sin ejercicio no se obtienen beneficios de los esteroides anabólicos.
Siguiendo esta misma línea de pensamiento, Pym (2016, p. 1) expresa que “hasta la fecha, la mejora en el
rendimiento se ha debido en gran medida a la aplicación de la selección genética cuantitativa, con un uso
limitado de las tecnologías moleculares”.
Si nos preguntamos, ¿todos los pollos parrilleros son “grandes” de tamaño? La respuesta es no, pues
depende de las costumbres que se tienen en cada país. En Argentina son relativamente grandes, pero en
Francia los prefieren mucho más chicos, por citar un ejemplo.
5.2.2. Razas y líneas de pollos de engorde
El concepto de raza alude a un grupo de individuos de la misma especie con características fenotípicas
(externas) y genotípicas (internas) definidas, distintas a las de la especie original, fijas y transmisibles
invariablemente a su descendencia. La variedad, en tanto, alude al conjunto de individuos de la misma raza,
que mantienen las características y actitudes generales pero presentan alguna variación que las distingue
(forma de la cresta, color de plumaje, etc.).
No obstante, debido al desarrollo industrial y especialización que tuvo el sector avícola, se producen para
cada raza diferentes líneas comerciales. Una línea (o estirpe) se forma a través de planes de cruzamiento y
selección de razas con características propias que se diferencian de otros grupos o conjuntos similares.
Comercialmente la producción avícola está determinada por el concepto de líneas y no se utiliza más el de
razas. Haremos una revisión sucinta de las principales razas y líneas dedicadas exclusivamente a pollos de
engorde. En la mayoría de los países en desarrollo hay dos industrias de aves de corral paralelas: una que
utiliza genotipos comerciales (razas pesadas de pollos de engorde) y otra basada en razas autóctonas con
doble función y bajo rendimiento (razas semipesadas o de doble función). Las principales características de
estos dos genotipos se describen en la Tabla 1, tomando datos de Cobb (2015) y Ross (2014b) .

73
Marcel Pochulu

Tabla 1: Características de las razas de pollos de engorde

Algunas líneas
Tipos y características
comerciales
Orpington (Inglaterra)
Cornish (Inglaterra)
Brahma (India)
White American (Estados Unidos) Broiler
Wyandottes (Estados Unidos) Hybro
- Contextura fuerte Ross
- Resistencia al calor y frío Hubbard
Razas pesadas - Rápido engorde Shaver
- Desarrollo precoz Pilch
- Facilidad de conversión de alimento en carne Cobb500
- Buen desarrollo corporal Peterson
- Patas grandes y bien desarrolladas Arbor Acres
- Cáscara del huevo color marrón
Tienen un ciclo corto de vida (6 a 8 semanas) alcanzando
un peso corporal de 1.9 a 2.2 kg
Plymouth Rock (Estados Unidos)
Rhode Island Red (Estados Unidos)
New Hampshire (Estados Unidos)
Sussex (Inglaterra)
Barnevelder (Holanda)
Lohmann Brown
- Plumaje castaño, aunque también negro y blanco.
Dekalb Warren
- Gran rusticidad.
Razas Harco Sex Link
- Eficiencia moderada para el engorde.
semipesadas o Hisex Brown
- Temperamento tranquilo.
de doble fin Isa Brown
- Se adaptan bien a los sistemas de explotación extensivos
Hy Line Brown
- Cáscara del huevo color marrón
Bacon
Se utilizan para producción de huevos y una vez terminado
el período se aprovecha como carne. Los machos se
utilizan para engorde pero no comercialmente, pues logran
un peso de 1.5 kg a las 18-20 semanas

5.3. Aproximaciones matemáticas al problema


Para abordar este problema es necesario tomar algunas decisiones sobre las variables a considerar. En
términos de Blomhoj & Hojgaard Jensen (2003), sería la selección de los objetos relevantes e idealización de
las variables para hacer posible una representación matemática.
No tenemos información acerca de la raza o línea de pollos parrilleros a la que se alude en el problema. En
consecuencia, haremos un estudio de caso y escogeremos dos líneas que son conocidas en Argentina y, al
mismo tiempo, debido a que disponemos suficiente información en Internet sobre las mismas. Aludimos a los
pollos de razas pesadas de las líneas Cobb500 y Broiler Ross 308.
Para determinar el momento óptimo de faena que conlleva a maximizar los beneficios, tendremos en cuenta
los costos más relevantes de la cría y explotación de pollos y los ingresos por ventas. El abordaje lo haremos
utilizando las dos líneas de pollos parrilleros, lo cual nos permitirá realizar un estudio comparativo.

74
5. Rentabilidad en la producción de pollos parrilleros

Simplificaremos el problema y consideraremos que los costos totales estarán conformados por el consumo
de balanceado que haría un pollo. Esta decisión guarda correspondencia con lo expresado por Orozco,
Melián y Rodríguez (2006), quienes indican que los alimentos representan el 71% del total de los costos de
producción y un 13% correspondientes a la adquisición de los pollitos como insumos para iniciar el proceso
de engorde de las aves. Los ingresos por ventas los reduciremos a lo ingresado, en términos de dinero, por
un pollo parrillero en el momento de ser vendido o faenado. En consecuencia, no consideraremos en los
costos totales las erogaciones que devienen de:
- La infraestructura y el emplazamiento del lugar de cría, como así tampoco su mantenimiento.
- Servicios (agua, electricidad, gas, teléfono, etc.). Asumimos que se dispone de un correcto
suministro, tanto en cantidad como en calidad.
- Traslado de un pollo para su venta (costos de comercialización).
- Mano de obra del personal especializado para la cría y mantenimiento.
- Impuestos provinciales y nacionales que devienen de la cría y explotación de aves.
- Adquisición del pollito que será utilizado para la cría y engorde.
Establecidas las decisiones sobre las variables a considerar, nos resta buscar información fiable sobre el
consumo de alimento y ganancia de peso diaria de un pollo de las dos líneas escogidas. Nuestro propósito
(primera resolución experta) será establecer dos modelos funcionales que están conformando la ecuación de
Beneficios. El primero de ellos será el que relacione el peso de un pollo parrillero con el tiempo transcurrido
desde su nacimiento. El segundo modelo será el que relaciona el consumo acumulado de alimento con el
tiempo transcurrido desde que nació el pollo.
Tomaremos algunos datos que proponen los manuales de manejo para los pollos machos de las líneas
Cobb500 (Cobb, 2015, p. 4) y Broiler Ross 308 (Ross, 2014a, p. 3).

Tabla Nº 2: Desempeño de un pollo macho de las líneas Cobb500 y Briler Ross 308

Cobb500 Broiler Ross 308


Edad Peso Consumo de alimento Peso Consumo de alimento
(días) (g) acumulado (g) (g) acumulado (g)
0 42 - 42 -
1 56 13 57 12
2 72 30 73 28
3 89 51 91 47
4 109 74 111 70
5 131 101 134 96
6 157 132 160 127
7 186 167 189 162
8 217 206 221 201
9 250 250 257 245
10 286 299 296 294
11 324 353 339 349
12 368 412 385 408
13 416 476 434 474
14 470 546 488 545
15 528 623 545 622
16 590 706 605 705
17 656 796 669 795
18 727 893 737 891
19 803 997 808 993
20 884 1109 882 1103
21 971 1228 959 1218
22 1058 1352 1040 1341
23 1145 1482 1123 1470
24 1233 1618 1209 1606
25 1321 1760 1297 1748
26 1409 1908 1388 1897
27 1497 2062 1481 2052
28 1585 2222 1576 2214
29 1677 2387 1673 2381

75
Marcel Pochulu

30 1773 2558 1771 2555


31 1873 2735 1871 2735
32 1978 2919 1973 2920
33 2085 3111 2075 3111
34 2192 3311 2179 3308
35 2299 3520 2283 3510
36 2406 3732 2388 3716
37 2513 3947 2493 3928
38 2620 4165 2599 4144
39 2726 4386 2705 4364
40 2832 4611 2811 4589
41 2938 4840 2917 4818
42 3044 5073 3023 5050
43 3150 5310 3129 5286
44 3256 5551 3234 5526
45 3362 5796 3339 5768
46 3468 6046 3443 6014
47 3574 6301 3546 6262
48 3680 6566 3648 6513
49 3786 6836 3750 6767
50 3891 7101 3851 7022
51 3994 7366 3950 7280
52 4095 7631 4049 7540
53 4194 7896 4146 7801
54 4291 8161 4242 8063
55 4386 8426 4337 8327
56 4481 8691 4431 8593
57 4573 8956 4523 8859
58 4662 9221 4613 9126
59 4748 9486 4703 9394
60 4831 9751 4791 9662
61 4912 10016 4877 9930
62 4990 10281 4961 10199
63 5068 10546 5045 10468
64 - - 5126 10737
65 - - 5206 11005
66 - - 5284 11273
67 - - 5360 11541
68 - - 5435 11808
69 - - 5508 12074
70 - - 5580 12339

En la Figura Nº 2 ensayamos diferentes modelos para relacionar el peso de un pollo de la línea Cobb500 con
el tiempo transcurrido desde su nacimiento.

76
5. Rentabilidad en la producción de pollos parrilleros

Figura Nº 2: Modelos asociados al peso de un pollo Cobb500 en función del tiempo


El análisis de estos modelos funcionales merece nuestra atención. Podemos descartar el modelo exponencial
por no tener un buen coeficiente de determinación. El modelo polinómico de grado 2 (o cuadrático) tiene un
buen coeficiente de determinación, pero no describe adecuadamente el crecimiento si requerimos extrapolar
datos, en tanto pronostica pesos de un pollo superiores a los 6.5 kg a partir de los 70 días, lo cual no se
corresponde con la realidad.
El modelo polinómico de grado 3 tiene muy buen ajuste, aunque no podríamos usarlo para un tiempo
superior a los 80 días, en tanto pronosticaría un descenso del peso del pollo, lo cual es ilógico. Por último, el
modelo logístico parecería ser apropiado por tratarse de un proceso biológico y tiene buen ajuste, sumado a
que pronostica un peso máximo razonable para esta línea. En síntesis, nos quedamos con estos dos últimos
modelos para relacionar el peso de un pollo de la línea Cobb500 con el tiempo, con las limitaciones que
indicamos.
Pasemos ahora a los modelos que podrían describir la relación entre el peso de un pollo de la línea Broiler
Ross 308 con el tiempo. Los mismos se contemplan en la siguiente figura.

Figura Nº 3: Modelos asociados al peso de un pollo Broiler Ross 308 en función del tiempo
El análisis de los dos modelos funcionales propuestos sería análogo al realizado anteriormente. De todos
modos, vale como aclaración que el modelo logístico pronostica un peso máximo superior para la línea
Broiler Ross 308, siendo que los valores de los mismos (de acuerdo a la Tabla 2) se mantienen por debajo de
los Cobb500 para todos los tiempos.
Es importante destacar que, para ambas líneas de pollos, no fue apropiado el ajuste del modelo exponencial,
siendo que es habitual que en la clase de matemática se lo vincule a todo tipo de crecimiento. Incluso si lo
relacionamos con el modelo logístico (o de Verhulst10), el cual tiene un comportamiento de esta naturaleza
para los valores iniciales de la interpolación. A su vez, el modelo logístico rara vez se introduce en la clase de
matemática, pues no suele formar parte de un contenido a ser enseñado y, sin embargo, es muy apropiado
para muchos procesos biológicos. En el modelo de crecimiento logístico queda implícito que a mayor tiempo
es menor la tasa de crecimiento de un pollo, lo cual se condice con lo informado en los manuales de cría.

10 Pierre-François Verhulst (1804-1849) fue un matemático belga y se le conoce principalmente como el descubridor de la ecuación
logística que lleva su nombre.

77
Marcel Pochulu

Pasemos ahora a los modelos de ajuste de la cantidad de balanceado consumida por un pollo al correr el
tiempo. Presentamos un ajuste apropiado en la Figura 4 y omitimos los que podrían ser ensayados y
descartados.

Figura Nº 4: Modelos asociados al consumo de balanceado de pollos Cobb500 y Broiler Ross 308

Con los modelos funcionales obtenidos anteriormente podemos encontrar la función de Beneficio, de tal
forma que dependa del tiempo que demanda la cría de un pollo parrillero. Así tendríamos:
Ingresos por Ventas = (Peso en función del tiempo). (precio de venta por kg)
Costos Torales = (Consumo acumulado de balanceado en función del tiempo). (precio de costo por kg)
Queda por buscar el precio de venta que tiene el pollo vivo en el mercado, lo cual se logra encontrar con
relativa facilidad en Internet. También tendremos que determinar el costo del balanceado por kilogramo. Para
este último, las opciones son muchas y es interesante que los estudiantes tomen criterios para establecer un
valor y las limitaciones o hipótesis que adoptan. Por ejemplo, no es lo mismo comprarlo en bolsas de 50
kilogramos que a granel y por grandes cantidades. Además, habría que incorporar el costo del transporte que
llevaría. Para simplificar una vez más el problema, no tendremos en cuenta este último.
Consideremos que el precio de venta de un kilogramo de pollo vivo se encuentre en el orden de U$S 1.10 y
que el costo del balanceado, por kilogramo y consiguiéndolo a granel, es de U$S 0,30. Destacamos que
estamos haciendo otra simplificación del problema, pues el costo del pollo vivo guarda relación con la edad,
como así también, el valor del kilogramo de balanceado que requiere para cada etapa de su crecimiento
(preiniciador, iniciador, engorde y terminador, por citar un ejemplo).
Recordemos que para el peso del pollo parrillero en función del tiempo habíamos propuesto dos modelos
funcionales (uno polinómico de grado 3 y otro logístico). En consecuencia, tendremos dos modelos
funcionales para los Beneficios.
Para la obtención del valor máximo relativo que tiene cada modelo funcional podemos apelar a los nuevos
recursos (GeoGebra en nuestro caso) o herramientas del Cálculo Diferencial, si es que los estudiantes
disponen de ellas. De todos modos, tampoco es condición indispensable tener conocimientos previos de
Cálculo Diferencial, pues es suficiente valuar la función de Beneficio para diferentes días y con ello se
determina el valor máximo. No tiene sentido encontrar un valor máximo con órdenes decimales, pues la
variable independiente corresponde a días y los entendemos como un número natural.

78
5. Rentabilidad en la producción de pollos parrilleros

También podríamos haber trabajado con la Tabla 2, incorporando los valores de venta y costos para cada
línea de pollo. Si usamos los modelos funcionales, tendríamos una primera aproximación al problema, el cual
se muestra en las Figuras 5 y 6. En la Figura 5, se incluyen los modelos logísticos para relacionar el peso de
un pollo con el tiempo. En la Figura 6, se incluyen modelos polinómicos para relacionar el peso de un pollo
con el tiempo que transcurre desde su nacimiento.

Figura Nº 5: Beneficio obtenido por la cría de pollos Cobb500 y Broiler Ross 308 (incluye modelo logístico)

Figura Nº 6: Beneficio obtenido por la cría de pollos Cobb500 y Broiler Ross 308 (incluye modelo polinómico)

Los modelos propuestos no brindan exactamente la misma información ante el cuestionamiento que nos
formulamos para el problema. Para la línea Broiler Ross 308 se debería faenar al pollo a los 60 días,
arrojando una utilidad de U$S 2.44, mientras que en el otro, a los 65 días y con un beneficio que llega a U$S
2.43 aproximadamente. En tanto, para la línea Cobb500 se lo debería faenar a los 56 días con un beneficio
de U$S 2.35 para un modelo y en el otro, a los 62 días con un beneficio de U$S 2.39.
79
Marcel Pochulu

Es de destacar que, para ambas líneas, los modelos arrojan como tiempo de faena a los 60 días,
aproximadamente, con pesos de las aves muy superiores a los que se encuentran en el mercado. A su vez,
hay puntos a destacar:
- Para los modelos de Beneficio propuestos hicimos un recorte importante de variables, como por
ejemplo, el costo del pollito. Tampoco se tuvieron en cuenta tasas de mortalidad y factores que los
diferentes manuales de cría indican como relevantes.
- La eficiencia de conversión resulta aproximadamente de 2.02 para cada línea, lo cual es superior a
lo recomendado por los especialistas en cría de pollos parrilleros. Pensemos que cuanto más alto
sea el valor de la eficiencia de conversión, más desfavorable nos resulta, pues indica que se
requiere mayor cantidad de alimento para producir un kilogramo de pollo vivo.
Algo sumamente relevante es analizar la brecha que existe entre el precio del kilogramo de balanceado y el
precio del kilogramo de pollo vivo. Se puede constatar que mínimas variaciones entre ellos (más elevado el
precio del kilogramo de balanceado y/o menor valor del precio por kilogramo vivo del pollo) provocan grandes
variaciones para determinar el momento óptimo de faena y el beneficio obtenido. Las fluctuaciones del
mercado, en este sentido, resultan decisivas para el cálculo del beneficio.
Busquemos mejorar un poco más estos modelos. Consideraremos los modelos de Beneficio que incluyen los
logísticos para relacionar el peso con el tiempo y le incorporamos dos modificaciones:
- Un aumento de U$S 0.10 en el costo del balanceado.
- Los costos de compra del pollito BB. Asumimos comportamientos internacionales que establecen
que el mismo es de un 13% sobre los costos, razón por la cual es necesario aumentar en un 18.31%
los costos totales. Este porcentaje surge de establecer proporciones y considerar que la expresión
que teníamos (referida al costo del alimento) corresponde al 71% de los costos totales.
Con estas consideraciones, los nuevos valores se reflejan en la Figura 7.

Figura Nº 7: Beneficio ajustado por la cría de pollos Cobb500 y Broiler Ross 308

Se puede apreciar que el momento óptimo de faena descendió drásticamente, como así también el beneficio
y el peso final de las aves. Las eficiencias de conversión resultan de 1.76 para un pollo de la línea Cobb500 y
de 1.82 para los Broiler Ross 308. Estos valores guardan estrecha relación con el sugerido por el forista que
dio origen al planteo de la situación problemática a modelizar. Para el cálculo usamos la expresión que
propone Ross (2014, p. 117), efectuando el cociente entre el total de alimento consumido y el total del peso
vivo del pollo.

80
5. Rentabilidad en la producción de pollos parrilleros

5.4. Perspectivas de trabajo matemático con el problema


Todo lo referido a la cría de pollos parrilleros o de engorde ofrece innumerables posibilidades de trabajo
matemático en la clase. Enunciaremos y desarrollaremos sucintamente algunas de ellas, con el propósito de
mostrar el potencial matemático que tienen y dejar las puertas abiertas para nuevas propuestas.
Podríamos trabajar con el cálculo de tasas de ventilación mínima de los galpones de cría de pollos y el punto
de ajuste de los temporizadores de los ventiladores. El problema cobra sentido si se hace un estudio en un
contexto real.
Hagamos un recorrido rápido por las etapas que tendría este problema. Necesitaríamos conocer datos tales
como: cantidad de aves del galpón y peso promedio del lote, cantidad de ventiladores y el flujo volumétrico o
CFM11 de ellos y, como dato relevante, la tasa de ventilación mínima que requieren las aves. En Ross (2014),
se ofrece una tabla con valores de tasas de ventilación (por ave) para temperaturas entre -1 y 16°C, las
cuales deberían ser ajustadas a las condiciones ambientales actuales de un galpón y al comportamiento del
ave y su biomasa (peso total de las aves del galpón). Una adaptación de esta tabla se encuentra a
continuación.
Tabla Nº 3: Tasas de ventilación mínima por ave (adaptación de Ross, 2014, p. 124)

Peso vivo (kg) Tasa de ventilación mínima (𝒎𝟑 /


𝒉𝒐𝒓𝒂)
0.050 0.074
0.100 0.125
0.200 0.210
0.300 0.285
0.400 0.353
0.500 0.417
0.600 0.479
0.700 0.537
0.800 0.594
0.900 0.649
1.000 0.702
1.200 0.805
1.400 0.904
1.600 0.999
1.800 1.091
2.000 1.181
2.200 1.268
2.400 1.354
2.600 1.437
2.800 1.520
3.000 1.600
3.200 1.680
3.400 1.758
3.600 1.835
3.800 1.911
4.000 1.986
4.200 2.060
4.400 2.133

11CFM (Cubit Feet per Minute) es la unidad de aire utilizada en los ventiladores (y también en los sistemas de aire acondicionado).
Mide el volumen de aire que pasa por un determinado punto en un tiempo específico.

81
Marcel Pochulu

Si nos interesa encontrar un modelo funcional que relacione el peso vivo de un ave con la tasa de ventilación
mínima, podemos efectuar un ajuste apropiado, como se muestra en la siguiente figura. Notemos que no es
trivial el modelo de ajuste y suele ser dificultoso que los alumnos den con él en primera instancia.

Figura Nº 7: Tasa de ventilación mínima por peso de un pollo

Ahora supongamos que hemos buscado información sobre un productor avícola que tiene 20.000 aves en un
galpón, con un peso promedio de 2.5 kg cada una. El galpón dispone de 4 ventiladores de 900 mm de
diámetro con un CFM de 12.18 𝑚3 /ℎ𝑜𝑟𝑎 y ciclos de 5 minutos. La época del año es otoño, y nos
encontramos en una zona con temperaturas que oscilan entre los 5ºC (mínima) y 15ºC máxima.
Los cálculos para esta situación particular arrojan los siguientes resultados:
- Tasa de ventilación mínima por ave: 1.4 𝑚3 /ℎ𝑜𝑟𝑎. Surge de valuar en 2.5 a la función de tasa de
ventilación mínima obtenida anteriormente.
- Ventilación total requerida = (tasa de ventilación mínima por ave) x (número de aves del galpón)
= 1.4 𝑚3 /ℎ𝑜𝑟𝑎 x 20000 = 28000 𝑚3 /ℎ𝑜𝑟𝑎
- Capacidad total de los ventiladores = CFM x (cantidad de ventiladores)
= 12.18 𝑚3 /ℎ𝑜𝑟𝑎 x 4 = 48.72 𝑚3 /ℎ𝑜𝑟𝑎
- Porcentaje de tiempo que los ventiladores deben estar encendidos:
𝑣𝑒𝑛𝑡𝑖𝑙𝑎𝑐𝑖ó𝑛 𝑡𝑜𝑡𝑎𝑙 𝑟𝑒𝑞𝑢𝑒𝑟𝑖𝑑𝑎 28000𝑚3 /ℎ
× 100 = × 100 ≅ 57.47%
𝑐𝑎𝑝𝑎𝑐𝑖𝑑𝑎𝑑 𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑙𝑜𝑠 𝑣𝑒𝑛𝑡𝑖𝑙𝑎𝑑𝑜𝑟𝑒𝑠 48.72𝑚3 /ℎ

- Tiempo real que los ventiladores pasan encendidos:


Tiempo real = (porcentaje de tiempo que deben estar encendidos)x(cantidad de segundos del ciclo)
Tiempo real = 0.5747 x 300 segundos ≅ 172 segundos
En consecuencia, en un ciclo de 5 minutos (300 segundos), los ventiladores deberán estar encendidos
durante 172 segundos y apagados durante los 128 segundos restantes que completan el mismo. En un caso
real, quedaría por constatar si el temporizador de los ventiladores responde a estos valores.

82
5. Rentabilidad en la producción de pollos parrilleros

Otra propuesta interesante sería trabajar con la eficiencia, crecimiento y rendimiento que fue ganando una
línea de pollos parrilleros con el tiempo. Se puede encontrar información relevante sobre pesos que tenían
estas aves e índices de conversión, lo que permitiría establecer un precio actual de venta bajo esos
parámetros. Esto es, ¿qué precio de venta habría tenido un pollo de 2.5 kg (ya faenado, por citar un ejemplo)
en diferentes épocas?
En Zuidhof, Schneider, Carney, Korver & Robinson (2014) se presentan datos referidos al crecimiento,
eficiencia y rendimiento de la línea Broiler Ross desde 1957. La tabla que se muestra a continuación se
construyó teniendo en cuenta la información que brinda este reporte.

Tabla Nº 4: Peso e índice de conversión de tres estirpes de Broiler Ross

Estirpes

AMC12 - 1957 AMC - 1978 Broiler Ross 308 - 2005


Índice de Índice de Índice de
Días Peso (g) Peso (g) Peso (g)
conversión conversión conversión
7 32.2 62.3 111.3

14 93.1 3.3 182.7 1.506 352.8 1.275

21 180.6 365.4 789.6

28 287.7 3.084 597.8 1.706 1362.9 1.483

35 417.9 863.8 2037

42 562.1 2.882 1161.3 1.899 2734.2 1.674

49 714.7 1467.2 3462.2

56 875.7 2.854 1761.2 2.135 4169.9 1.918

También se podrían hacer análisis comparativos de precios y cuestionarse ¿por qué es más elevado el kg de
carne de cerdo que el de pollo? ¿Es razonable el precio que tiene actualmente un kilogramo de carne de
cerdo comparado con un kilogramo de carne de pollo? ¿Conviene criar cerdos o pollos? Sin lugar a dudas
podríamos plantearnos un sinnúmero de preguntas más sobre este tema y con un alto potencial matemático.
5.5. Referencias bibliográficas
Blomhoj, M. & Hojgaard Jensen, T. (2003). Developing mathematical modelling competence: Conceptual
clarification and educational planning. Teaching mathematics and its applications 22(3), 123-139.
Cobb (2015). Suplemento informativo sobre rendimiento y nutrición de pollos de engorde Cobb500. Disponible
en https://cobbstorage.blob.core.windows.net/guides/9000e3b0-bcc7-11e6-bd5d-55bb08833e29.pdf
FIRA (2016). Panorama Agroalimentario – Avicultura carne 2016. México: Dirección de Investigación y
Evaluación Económica y Sectorial.

12 Universidad de Alberta Meat Control (AMC)

83
Marcel Pochulu

Focus (2013). Cómo hicimos de Cobb500 el pollo de engorde más popular del mundo. Arkansas, USA: Cobb
- Vantress.com. Disponible en: http://www.cobb-vantress.com/docs/default-source/cobb-focus-
2013/Cobb%20Focus%20Four%202013%20Spanish.pdf?sfvrsn=0
OECD/FAO (2016). Perspectivas Agrícolas 2016-2025. París, Francia: OECD Publishing. DOI:
http://dx.doi.org/10.1787/agr_outlook-2016-es
Orozco, R.; Meleán, R. y Rodríguez, G. (2006). Costos de producción en la cría de pollos de engorde.
Gerencia, 9(28), 1-27.
Pym, R. (2016). Genética y cría de aves de corral en los países en desarrollo. Queensland, Australia: FAO.
Disponible en: http://www.fao.org/docrep/016/al725s/al725s00.pdf
Ross (2014a). Broiler Ross 308: Objetivos de rendimiento. Disponible en:
http://es.aviagen.com/assets/Tech_Center/BB_Foreign_Language_Docs/Spanish_TechDocs/Ross-
308-Broiler-PO-2014-ES.pdf
Ross (2014b). Manual de manejo del pollo de engorde Ross. Disponible en:
http://es.aviagen.com/assets/Tech_Center/BB_Foreign_Language_Docs/Spanish_TechDocs/RossBr
oilerHandbook2014-ES.pdf
Wright, C.; Harris, C. y Linden, J. (2016). Siete razones por las que los pollos no se alimentan con hormonas.
Disponible en http://www.elsitioavicola.com/articles/2454/siete-razones-por-las-que-los-pollos-no-se-
alimentan-con-hormonas/
Zuidhof, M. J.; Schneider, B. L.; Carney, V. L.; Korver, D. R. & Robinson, F. E. (2014). Growth, efficiency, and
yield of commercial broilers from 1957, 1978, and 2005. Poultry Science, 93, 2970–2982.

84
6. Optimización del diseño de empaques de cartón del tipo Tetra Brik

6
Optimización del diseño de empaques de
cartón del tipo Tetra Brik

Marcel Pochulu
6.1. Introducción
La importancia que tiene la leche en la alimentación humana data de tiempos remotos y se mantiene en la
actualidad, siendo insustituible para los niños. Es considerada un producto nutricional fundamental para la
supervivencia de todos los mamíferos, por su equilibrado contenido de macronutrientes (hidratos de carbono,
proteínas y grasas), distintos minerales, calcio, vitaminas y electrolitos.
La conservación de la leche se consiguió tradicionalmente al reducir la actividad del agua (pues minimiza la
posible proliferación bacteriana) con el agregado de azúcar para aumentar su conservación. La actividad de
agua hace referencia a la cantidad de agua libre que está disponible en un alimento para el crecimiento
microbiano y se simboliza como 𝒂𝒘 (del inglés activity of water). Debido a que los microorganismos
necesitan una cierta cantidad de agua para vivir, crecer y reproducirse, los métodos de conservación de
alimentos se fundamentan (al menos en un principio) en la reducción de la disponibilidad de agua. Esta
reducción se logra hoy en día por deshidratación, evaporación, liofilización13, fijándola por agregado de
azúcares o sales, congelación u otros medios.
El proceso provoca una mayor vida útil de la leche al asegurar a su vez su higienización. No obstante, lo que
provocó el incremento del consumo fueron los avances tecnológicos que supuso la época de la
industrialización, tanto a nivel de distribución como en conservación. Asimismo, con el descubrimiento de la
pasteurización (eliminación de las bacterias mediante el calor y un posterior enfriado rápido) por Luis Pasteur,
se logró la destrucción de patógenos en la leche. Al respecto, Espinosa, Rivera, y García (2008, p. 2)
comentan que:

13 La liofilización es un proceso en el que se congela la leche y una vez congelada se introduce en una cámara de vacío para realizar
la separación del agua por sublimación. De esta manera se elimina el agua desde el estado sólido al gaseoso del ambiente sin pasar
por el estado líquido.

85
Marcel Pochulu

En las primeras fases del crecimiento urbano, el consumo de leche dependía de la cercanía de
los establos a los asentamientos humanos, ya que una menor distancia evitaría la
descomposición de la leche. En esa etapa, el consumidor conocía el origen y tratamiento de la
leche, pero conforme las ciudades crecían, la seguridad de las características y cualidades del
producto se volvió relativa.
En el siglo XX se descubrió la esterilización y la ultrapasteurización14 o uperización que, además de tener los
mismos efectos de la pasteurización, elimina las esporas del género Clostridium de la leche y se la puede
conservar a temperatura ambiente. Además, la transformación de la vida rural a la urbana exigió que la leche
pudiera ser transportada desde el campo a la ciudad y se mantuviera durante más tiempo en buen estado de
conservación. Aparecen en esta época los supermercados y almacenes, donde los alimentos no podían ser
manipulados individualmente, razón por la cual los envases comienzan a jugar un papel importante.
Si bien los envases fueron cambiando con la evolución de la sociedad, hoy en día son los encargados de la
protección y preservación de la leche. Se los diseña para que interaccionen directamente con el producto o
con su entorno para mejorar uno o más aspectos de su calidad y seguridad.
Dentro de las grandes innovaciones en la industria de los envases, las cajas de cartón aséptico para la leche
y que no necesitan refrigeración son una de las aportaciones más importantes y revolucionarias de los
últimos años. En este tipo de envases se destaca la empresa multinacional sueca Tetra Pak, la que a través
de su fundador, Rubén Rausing15, presentó un envase altamente innovador basado en la lógica de su
geometría y explotando al máximo los beneficios de sus componentes. Ese envase es conocido hoy en día
con la denominación de Tetra Brik, tetrabrik o brik, a tal punto que se lo suele considerar un nombre genérico,
cuando en realidad es una marca comercial registrada.
El envase Tetra Brik se introdujo en el mercado después de un largo proceso de desarrollo basado en el
anterior envase que tenía forma de tetraedro. Gracias a su forma delgada y rectangular16 (paralelepípedo17
en matemática), fácil de apilar y que no necesita refrigeración, se convirtió en el envase más eficiente.
Actualmente la compañía tiene fábricas de producción de material de envasado en Suecia, China, Italia,
Alemania, México, Japón, Holanda, Francia, España, Paraguay, Argentina, entre otros (Tetra Pak, 2015).
En este contexto surge nuestra situación problema, la cual enunciamos de la siguiente manera:

Analizar y fundamentar si al modificar el modo en que está plegado un envase de cartón para 1 litro de leche
del tipo Tetra Brik, pero conservando el formato de paralelepípedo, se modifica su capacidad. Asimismo,
estudiar las ventajas y/o desventajas que tiene el diseño de dos envases diferentes de la firma Tetra Pak
para una misma capacidad. Entendemos que la respuesta tiene que estar fundamentada a través de un
estudio matemático más que la búsqueda de esta información en Internet.

Destacamos que no se pretende que un alumno aborde el proceso de modelización usando Cálculo
Diferencial en una variable, sino más bien que prescindiendo de estos conocimientos realice aproximaciones
matemáticas al problema.

14 En la ultrapasteurización o tratamiento a temperaturas ultra altas (Ultra High Temperature, UHT) se aplica más calor al alimento
que en la pasteurización, aunque durante un corto período de tiempo. No se consigue una completa esterilización (ausencia total de
microorganismos y de sus formas de resistencia), sino más bien la denominada esterilización comercial, en la que se somete al
alimento al calor suficiente para destruir las formas de resistencia de Clostridium botulinum.
15Ruben Rausing (1895-1983) se graduó en 1918 en la Escuela de Economía y Administración de Empresas de Estocolmo, y en
1920 obtuvo su maestría en la Universidad de Columbia de Nueva York.
16Los envases de la firma Tetra Pak no son todos paralelepípedos. Sólo estamos considerando los más comunes usados para
envasar leche.
17 Un paralelepípedo es un poliedro de seis caras (por tanto, un hexaedro), en el que todas las caras son paralelogramos, paralelas e
iguales dos a dos.

86
6. Optimización del diseño de empaques de cartón del tipo Tetra Brik

6.2. Contextualización de la situación problema


6.2.1. La historia de una idea
La historia de los envases Tetra Brik no solo involucra a Rubén Rausing como visionario, sino también como
un gran emprendedor, a quien no le bastó con ver el futuro sino que también lo construyó. No solo fue quien
creó el empaque, sino que además ideó la máquina y el material de envasado.
El concepto del nuevo empaque para leche líquida nace alrededor de los años 20 cuando Rausing viaja por
su Maestría a Nueva York. Allí se percata del sistema de venta por autoservicio (que no era común en
Europa), donde las bebidas como la leche se vendían en pesadas y voluminosas botellas de vidrio.
De alguna manera intuye que los productos preempacados serían el futuro de las ventas de alimentos, pues
ofrecen mejores condiciones higiénicas y prácticas para la distribución. Esta idea la desarrolla en Suecia
buscando implementar una nueva y moderna tecnología de empaquetado.
En 1929 crea la primera empresa escandinava de empaques de cartón, la Åkerlund & Rausing, en sociedad
con Erik Åkerlund. En esta empresa se dieron los primeros pasos para el desarrollo de un envase para
lácteos, y crean un tetraedro de cartón recubierto de plástico que se patentó en 1944. La forma geométrica
es atribuible a Erik Wallenberg (ingeniero sueco), aunque sus desarrollos iniciales comenzaron con formas
cilíndricas hasta finalmente llegar a un cuerpo formado por cuatros lados triangulares.
La idea de formar un tubo de papel, llenarlo y cerrarlo de forma continua (proceso que se originó en aquella
época), hoy en día es una técnica de vanguardia utilizada para el empaquetamiento y para los fabricantes de
maquinarias de sistemas de formado, llenado y sellado (form-fill-seal y de allí su sigla: FFS).
El nuevo sistema de empaquetado no logró un éxito inmediato, pues el papel no sella. Hacia el año 1933, en
los laboratorios de la Imperial Chemical Industries (empresa química británica con sede en Londres), hallaron
una solución al problema de sellado de la compañía y propusieron recubrir el cartón con una película de
polietileno que permitiría formar el tubo, llenarlo y poder sellar a través del producto (leche líquida en este
caso), lo cual garantizaría un sellado perfecto, hermético e higiénico. A pesar de tener una solución al
problema, se requirió de 10 años más para desarrollar un material completamente confiable, impreso y que
pudiera ser producido en gran escala.
El avance comercial de Tetra Pak no llegó hasta mediados de los años 60 con el nuevo paquete Tetra Brik y
posteriormente Tetra Brik Aseptic, que se presentó en 1968 y abrió la puerta a nuevos mercados en el mundo
(Tetra Pak, 2015).
El nuevo envase permitió extender la vida del producto sin necesidad de una cadena refrigerada para la
distribución, lo cual fue de gran aceptación en los países en vías de desarrollo que no contaban con
adecuados sistemas de refrigeración en la distribución. Después de 30 años de esfuerzos e inversiones
incesantes, la empresa de Rausing finalmente resultó exitosa y Tetra Pak se convirtió en la compañía líder de
procesamiento y empaque de alimentos en el mundo.
A pesar de su innegable utilidad para conservar los alimentos líquidos perecederos sin refrigerar y sin
conservantes, o de tener una alta eficiencia para ser transportado debido a su forma geométrica, a los
envases de Tetra Pak se los sigue viendo con dificultades para ser reciclados una vez que se los vacía y se
los tira a la basura. Estos envases están compuestos hasta por seis láminas distintas de materiales: dos
iniciales de polietileno, una de aluminio, otra de polietileno, la más gruesa de cartón y una última de
polietileno nuevamente (Figura 1).
En términos porcentuales, el papel representa un 75% de la totalidad de los materiales de los empaques,
mientras que el polietileno y el aluminio completan la estructura con 20% y 5%, respectivamente. No
obstante, las capas son muy difíciles de separar para confirmar el lema que ha distinguido a la compañía a lo
largo de su historia: "Sostenibles por naturaleza".

87
Marcel Pochulu

Figura 1: Capas y funciones de un envase de Tetra Pak18

El papel, sin embargo, no se recicla para la producción de nuevos empaques. Actualmente desde la empresa
Tetra Pak se busca mejorar la tasa de reciclaje y alcanzar un 40% hacia el 2020. La disgregación del envase
se realiza a través del proceso de hidrapulpado que logra separar las fibras de cartón de polietileno y
aluminio. En el proceso quedan las fibras de papel suspendidas en el agua, mientras el polietileno y el
aluminio son retenidos por una serie de filtros. El hidrapulpado recupera hasta un 98% de las fibras de
cartones que se utilizan para fabricar nuevos productos de papel.
6.2.2. La numeración en los envases de Tetra Pak
Cada envase de Tetra Pak lleva una numeración impresa en la base del mismo. Con cada pedido de
envases formulado por una empresa productora de leche se genera un número secuencial, llamado número
de orden de la producción, que sirve para el rastreo de la misma. Ese número aparece en la base del envase
(1, 2, 3, etc.) y se imprime en el momento de la producción del mismo. Así los envases de leche son
producidos en grandes bobinas y enviados a los clientes productores de leche.
Los productores reciben las bobinas, que son colocadas en las máquinas envasadoras y forman un envase
de cartón al mismo tiempo que tiene lugar el llenado con el producto. Esto quiere decir que el productor de
leche ya recibe los cartones con la numeración y por tanto, los dígitos no aportan información alguna del
producto que contiene. En consecuencia, no hay ninguna relación entre los números en la base del envase y
la cantidad de veces que la leche ha sido pasteurizada.
Este mito surgió de pensar que las cajas de leche ya vencida volvían a las fábricas, donde eran sometidas
una y otra vez al proceso de pasteurización, matando nutrientes y todas las propiedades del líquido, e
informando en el envase cuántas veces pasó por este proceso de “purificación”.

18 Imagen obtenida de http://www.ecoplak.com/ecocamps/img/ecoplak.png

88
6. Optimización del diseño de empaques de cartón del tipo Tetra Brik

6.3. Aproximaciones matemáticas al problema


Notemos que el problema conlleva a dos abordajes: Estudiar la optimización en el diseño del envase
utilizando la misma cantidad de material y, por el otro, estudiar la optimización del diseño de dos envases
diferentes que tienen la misma. Empecemos por el primero de ellos.
6.3.1. Optimización del diseño del envase utilizando la misma cantidad de material
Para iniciar con el problema será necesario conseguir algún envase de cartón del tipo Tetra Brik utilizado por
alguna empresa comercial destinada a la comercialización de leche. Podemos encontrar dos modelos, el que
tiene una base cuadrada y el que tiene una base rectangular. Para nuestro desarrollo tomaremos el de base
rectangular.
Es complejo determinar la cantidad de material que se utiliza en un envase para leche, si consideramos el
empaque tal cual se nos presenta (Figura 2).

Figura 2: Envase Tetra Brik con base rectangular

Si bien es posible determinar las tres dimensiones que conforman el empaque y establecer su capacidad
total, no es evidente el modo en que una variación de ellas se relaciona con las demás y conserva la cantidad
de material. En este punto será necesario realizar el desarrollo plano del envase, como puede verse en la
Figura 3.
Es relevante marcar que esta actividad conlleva procesos de medición por parte de los estudiantes que
suelen acarrear un sinnúmero de errores. Por ejemplo, establecer medidas individuales de algunas
dimensiones (altura, ancho o profundidad de la caja) y, al ser sumadas, no logran tener las del desarrollo
plano del envase.

89
Marcel Pochulu

Figura 3: Desarrollo plano del envase Tetra Brik con base rectangular

Prescindiremos del material utilizado para el sellado de la caja, considerando que los 5mm se mantienen
constante al modificar su plegado. Podemos organizar la información en una tabla de valores, donde
colocaremos las dimensiones del envase.

Tabla 1: Dimensiones iniciales del envase Tetra Brik

Altura Lateral Frente Volumen


mm mm mm mm3
175 61 94 1003450

Será necesario modificar una de las dimensiones y analizar lo que ocurre con el cálculo del volumen. Este
proceso no es evidente para los estudiantes y tendrán que escoger una dimensión, la cual pasará a ser la
variable independiente. Supongamos que iniciamos modificando la altura, pero ¿cómo se ven modificadas las
demás dimensiones?
Hay que tener presente que la cantidad de material se conserva, razón por la cual el tamaño de la hoja de
cartón desplegado será la misma (310 mm x 236 mm). En algún momento será necesario relacionar las
variables que intervienen en la situación problema. Así, con ALTURA, LATERAL y FRENTE representamos a
las dimensiones del envase y prescindiendo de las unidades de medida, tendremos las siguientes relaciones:
𝐴𝐿𝑇𝑈𝑅𝐴 + 𝐿𝐴𝑇𝐸𝑅𝐴𝐿 = 236
{
2 ∙ 𝐹𝑅𝐸𝑁𝑇𝐸 + 2 ∙ 𝐿𝐴𝑇𝐸𝑅𝐴𝐿 = 310
Es un sistema de ecuaciones que tiene infinitas soluciones y no es nuestro propósito encontrar la expresión
analítica del conjunto solución. Sí interesa encontrar soluciones particulares y, para ello, será necesario dar

90
6. Optimización del diseño de empaques de cartón del tipo Tetra Brik

valores a una de las variables y de esta forma, encontrar a las demás, como queda representado en la Tabla
2.

Tabla 2: Dimensiones posibles del envase Tetra Brik conservando cantidad de material
Altura Lateral Frente Volumen
mm mm mm mm3
152 84 71 906528
153 83 72 914328
154 82 73 921844
155 81 74 929070
156 80 75 936000
157 79 76 942628
158 78 77 948948
159 77 78 954954
160 76 79 960640
161 75 80 966000
162 74 81 971028
163 73 82 975718
164 72 83 980064
165 71 84 984060
166 70 85 987700
167 69 86 990978
168 68 87 993888
169 67 88 996424
170 66 89 998580
171 65 90 1000350
172 64 91 1001728
173 63 92 1002708
174 62 93 1003284
175 61 94 1003450
176 60 95 1003200
177 59 96 1002528
178 58 97 1001428
179 57 98 999894
180 56 99 997920
181 55 100 995500
182 54 101 992628
183 53 102 989298
184 52 103 985504
185 51 104 981240
186 50 105 976500
187 49 106 971278
188 48 107 965568

91
Marcel Pochulu

El análisis de la tabla nos revela cuestiones interesantes. Por un lado, constatamos que el plegado del
envase, conservando la cantidad de material, lleva a modificar su capacidad. Por otro lado, el plegado que
tiene el envase (en nuestro caso particular) está optimizado, logrando una capacidad máxima.
Debido a que con la situación problema buscamos desarrollar un espíritu que emule el quehacer de un
matemático, tendríamos que seguir profundizando el estudio. Por ejemplo, encontrar la expresión analítica
que relaciona el volumen de la caja con la altura. Esto lo podemos hacer de varias formas. Ensayemos
algunas de ellas.
Si hacemos una representación gráfica de los valores que tenemos para las dos variables puestas en juego
(volumen versus altura) nos queda el diagrama de dispersión de la Figura 4.

Figura 4: Diagrama de dispersión de volumen versus altura del envase Tetra Brik

Algunos modelos funcionales de ajuste son los que se muestran en la Figura 5, donde el polinómico de grado
3 resulta ser el más apropiado. No obstante, el modelo polinómico de grado 2 nos brinda un valor bastante
aproximado al que habíamos encontrado en la tabla.
Si quisiéramos hallar el modelo de ajuste encontrado usando GeoGebra, tendremos que pasarnos al registro
algebraico. Un esquema posible sería el siguiente:
𝑉𝑂𝐿𝑈𝑀𝐸𝑁 = 𝐴𝐿𝑇𝑈𝑅𝐴 ∙ 𝐿𝐴𝑇𝐸𝑅𝐴𝐿 ∙ 𝐹𝑅𝐸𝑁𝑇𝐸 (1)
Además sabemos, por la relación que existe entre las variables, que:
𝐿𝐴𝑇𝐸𝑅𝐴𝐿 = 236 − 𝐴𝐿𝑇𝑈𝑅𝐴 (2)
𝐹𝑅𝐸𝑁𝑇𝐸 = 155 − 𝐿𝐴𝑇𝐸𝑅𝐴𝐿 (3)
Sustituyendo (2) y (3) en (1) tendremos:
𝑉𝑂𝐿𝑈𝑀𝐸𝑁 = 𝐴𝐿𝑇𝑈𝑅𝐴 ∙ (236 − 𝐴𝐿𝑇𝑈𝑅𝐴) ∙ (155 − 𝐿𝐴𝑇𝐸𝑅𝐴𝐿) (4)
Reemplazamos en esta última expresión por (2):
𝑉𝑂𝐿𝑈𝑀𝐸𝑁 = 𝐴𝐿𝑇𝑈𝑅𝐴 ∙ (236 − 𝐴𝐿𝑇𝑈𝑅𝐴) ∙ (155 − 236 + 𝐴𝐿𝑇𝑈𝑅𝐴)
Aplicando propiedad distributiva:
𝑉𝑂𝐿𝑈𝑀𝐸𝑁 = −𝐴𝐿𝑇𝑈𝑅𝐴3 + 317 ∙ 𝐴𝐿𝑇𝑈𝑅𝐴2 − 19116 ∙ 𝐴𝐿𝑇𝑈𝑅𝐴
La cual resulta equivalente a la encontrada con el software.

92
6. Optimización del diseño de empaques de cartón del tipo Tetra Brik

Figura 5: Modelos funcionales de ajuste para el volumen versus altura del envase Tetra Brik
También podríamos cuestionarnos por las dimensiones que tendría el envase para un determinado volumen
usando el mismo material y plegándolo de manera diferente. Por ejemplo, analicemos las dimensiones para
un volumen de 950 𝑐𝑚3 (o, lo que es lo mismo, 950000 𝑐𝑚3 ). Si tuviésemos que hacerlo algebraicamente
sería engorroso, pero apelando a nuevos recursos el proceso se facilita y trabajamos cuestiones referidas a
comprensión del comportamiento de los modelos funcionales. En particular, lo hicimos buscando la
intersección de funciones, como puede verse en la Figura 6.

Figura 6: Determinación de la altura del envase Tetra Brik para un volumen prefijado

Encontramos dos valores posibles y aproximados para la altura del envase, y quedaría por determinar las
demás dimensiones del mismo. Es importante observar que, al tratar con aproximaciones, no lograremos que
la capacidad sea exactamente de 950000𝑚𝑚3 , como se advierte en los siguientes cálculos.

93
Marcel Pochulu

Tabla 3: Dimensiones del envase Tetra Brik para un volumen prefijado

Altura Lateral Frente Volumen


mm mm mm mm3
158 78 77 948948
190 46 109 952660

6.3.2. Optimización del diseño de dos envases que tienen la misma capacidad
Para iniciar esta sección será necesario conseguir dos envases de cartón del tipo Tetra Brik utilizado para
leche y con la misma capacidad. No es complicado dar con ellos porque las firmas que comercializan la leche
procesan diferentes variedades en envases distintos. Por ejemplo, La Serenísima empaca la leche entera
ultrapasteurizada en envases del modelo Tetra Square de Tetra Pak, mientras que la leche entera lo hace en
el modelo Tetra Slim (Figura 7).

Figura 7: Diferentes empaques de una firma comercial que procesa leche

Esta etapa del problema no tendría que ofrecer dificultades, pues se usaría una estrategia empleada en la
primera parte. Esto es, realizar los desarrollos planos de ambos modelos y comparar, al menos en primera
instancia, la cantidad de material que se utiliza. En este caso tendremos en cuenta el material utilizado para
el sellado de la caja y los datos se contemplan en la siguiente tabla

Tabla 4: Dimensiones iniciales del envase Tetra Brik


Largo Ancho Área
Altura caja Lateral caja Frente caja desarrollo desarrollo desarrollo
Modelo plano plano plano
mm mm mm mm mm mm2
Tetra Slim 175 61 94 320 246 78720
Tetra Square 199 71 71 294 280 82320

94
6. Optimización del diseño de empaques de cartón del tipo Tetra Brik

Ambos modelos no emplean la misma cantidad de material y resulta más óptimo, en términos de cantidad de
material utilizado, el Tetra Slim (base rectangular). Sin embargo, las diferencias no son demasiado relevantes
como para que interfieran en los costos del envase. Si bien se tienen 3600 mm2, esto es 3.6 cm2, lo cual es
poco significativo; cabría preguntarse si no se podría diseñar otro empaque que tenga una cantidad de
material significativamente menor y que podría justificar una disminución en costos de envase.
Por último, habría que complementar la información con la resistencia de los envases al ser apilados y lugar
que ocupan en góndolas, palets y caminones de transporte, con el propósito de determinar alguna ventaja y/o
desventaja. Por ejemplo, en Tetra Pak (2015) se menciona que los envases Tetra Brik cumplen con los
estándares internacionales para ser cargados en pallets.

Figura 8: Envases Tetra Brik en pallet con dimensión estándar

De todos modos, podemos realizar un recorte a la situación problemática y solo quedarnos con lo realizado
hasta el momento.
6.5. Perspectivas de trabajo matemático con el problema
Todo lo referido al diseño de empaques abre un sinnúmero de perspectivas de trabajo matemático en el aula,
en la medida que se busquen modelos del mundo real o cotidiano de los alumnos. Los diseños de envases y
embalajes, packaging en su denominación en inglés y como es conocida en el mundo del marketing, es una
actividad que evolucionó notablemente con el correr de los años. Podemos advertir que los diseños actuales
superan ampliamente la clásica caja obtenida de una plancha de cartón, a la que se le han cortado
cuadrados en las puntas, y que aún prevalece en los libros actuales de matemática como ejemplo de
problemas de optimización ligados al mundo real.
En lo que atañe a envases del tipo Tetra Brik se puede estudiar, por ejemplo, en qué medida influye en los
costos de material si se realizan diseños optimizados para la capacidad a la que se los destina.
También se vuelve una actividad matemáticamente rica el análisis de envases en términos de
aprovechamiento de material para lograr la máxima capacidad. Por ejemplo, se puede hacer un estudio
semejante al que propusimos para envases del tipo Tetra Brik, pero para cajas de hamburguesas (Figura 9).

95
Marcel Pochulu

Figura 9: Cajas de cartón para hamburguesas

No obstante, todo lo referido a optimización de envases tiene que estar vinculado con el mundo de la
logística y el marketing; pues si se priorizan costos en los materiales que utiliza un envase, podemos
aumentarlos en el envío o distribución, por no cumplir con disposiciones internacionales o dimensiones
establecidas para las góndolas.
6.4. Referencias bibliográficas
Espinosa, V. E.; Rivera, G. y García, L. A. (2008). Los canales y márgenes de comercialización de la leche
cruda producida en sistema familiar (estudio de caso). Veterinaria México, 39(1), 1-14.
Tetra Pak (2015). Tetra Pak® – development in brief. Disponible en https://assets.tetrapak.com/static/
documents/9704en.pdf

96
7. Filotaxis y patrones en la naturaleza

7
Filotaxis y patrones en la naturaleza

Luis Córdoba y Marcel Pochulu


7.1. Introducción
¿Por qué algunas azucenas cambian de color al secarse? Cuenta una leyenda guaraní que Tupá (Dios
bueno) creó a los animales y los bosques, y después a dos hermanos con ayuda de I-Yará (espíritu de agua).
Uno tenía la piel más roja y fue llamado Pitá y otro, con la piel blanca, Morotí. Cada hermano tuvo una
compañera para que procrearan y vivieran felices en la selva, comiendo los frutos que ofrecía la naturaleza.
Pero el paso del tiempo y la supervivencia en la tierra generó enfrentamientos entre ambos, quebrándose la
paz entre los hermanos.
Tupá, enojado, decidió castigar a los hermanos por necios y provocó una espantosa tormenta que duró 3
días y 3 noches, al cabo de las cuales salió el sol. Los hermanos arrepentidos por todo lo sucedido se
abrazaron y allí, en presencia de todos, fueron perdiendo sus formas humanas hasta convertirse en un solo
cuerpo, que se hizo un tronco. De ese tronco salieron ramas y de las ramas, hojas y perfumadas flores
moradas como la piel de Pitá, que se tornaban blancas al marchitarse, como la piel de Morotí. Así nació esta
azucena con sus colores, que Tupá dejó en la tierra para recordar a los hombres que deben vivir unidos.
¿A qué se debe el color de los animales de la selva? En Kipling (1999) se relata que en días lejanos vivían –
en un lugar llamado el Alto Desierto- la Jirafa, la Cebra, el Eland, el Kudú y el Búfalo, todos de un color
arenoso, parduzco y amarillento, y también el Leopardo, que tenía la piel más parecida al matiz de la arena.
El poder mimetizarse con el lugar le daba ventajas a este último para arrebatarles la vida a los demás
animales. También vivía en la misma región un Etíope que cazaba con arco y flecha.
Al pasar el tiempo, los animales fueron abandonando el Alto Desierto y se fueron a una selva virgen, donde
no había más que árboles y malezas. Después de pasar un largo período, a la Jirafa le salieron unas
manchas, a la Cebra unas listas, el Eland y el Kudú se volvieron de color maíz oscuro con algunas estrías
grises y onduladas en el lomo que simulan ser cortezas de árbol.
Cuando el Etíope y el Leopardo llegaron a la selva, se pasaron días enteros cazando y, aunque percibían el
olor de los animales, no lograban verlos debido a que se mimetizaban con un lugar de densos y talludos

97
Luis Córdoba y Marcel Pochulu

árboles, estrías, manchas, puntos, líneas y enrejados de sombra. Ambos advirtieron que resaltaban ante el
resto de los animales, razón por la cual no tenían éxito en la caza y decidieron mudar su piel. El Etíope
adquirió un tono sufrido, entre negruzco y pardo y le pintó manchas al Leopardo. Las manchas las hizo
juntando los cinco dedos de la mano, lo cual producía cinco motitas negras muy juntas. Algunas le quedaron
muy borrosas, porque se le resbalaban los dedos sobre el cuerpo del Leopardo.
Sin lugar a dudas podríamos continuar con numerosas historias y leyendas referidas a la creación de los
patrones en la naturaleza. Pero lo cierto es que encontrar la verdadera respuesta a ciertas preguntas puede
ser una tarea difícil. Entonces, ¿cómo y por qué surgen patrones en la naturaleza? ¿Es posible entender la
gran complejidad y diversidad de las formas y estructuras en los seres vivos? ¿Qué mecanismos hay detrás
del surgimiento de estructuras espacialmente ordenadas en la naturaleza?
Si aceptamos que la Geometría conforma el plano básico del universo físico, podemos esperar encontrarla
también en el diseño de seres naturales, tanto animados como inanimados. Nos detendremos en el primer
caso y cabe preguntarnos: ¿qué patrones numéricos, especialmente en los de crecimiento, nos ofrecen
ciertas disposiciones geométricas? Y si es que hay una Geometría subyacente, ¿por qué la naturaleza
adopta una forma y no otra? ¿Es indiferente la forma en la que crecen y se disponen las hojas de una planta?
En el mundo de la Biología, la filotaxis19 es tal vez el ejemplo más notable de un fenómeno que solo puede
ser descrito mediante el uso de nociones cuantitativas y de la Geometría. Dentro de la variedad de patrones
biológicos que se hallan en la naturaleza, los más intrigantes y al mismo tiempo más frecuentes de encontrar
son los caracterizados por la disposición de algunos elementos en espiral continua. Por ejemplo, si
observamos la disposición que tienen las florecillas del girasol20 nos damos cuenta que éstas forman arreglos
que se ajustan a una disposición espacial que no es arbitraria (Figura 1).

Figura 1: Disposición de las florecillas en el Girasol

Este aspecto, que ampliaremos más adelante, destaca como unas florecillas abren a izquierda, mientras que
otras lo hacen a la derecha. De hecho estas características las tienen muchas otras flores, pero ¿lo hacen en
un número arbitrario? En 1753, el botánico escocés Robert Simpson observó que la sucesión de Fibonacci
rige el patrón de crecimiento de muchas plantas.

19 La palabra filotaxis viene del griego phyllos, hoja, y taxis, orden, por lo que podríamos significar como el “orden de las hojas”.
20 Esta es una flor que posee una composición de flores más pequeñas que luego serán semillas.

98
7. Filotaxis y patrones en la naturaleza

El estudio de la filotaxis puede hacerse de dos maneras: estudiando el arreglo de las hojas a lo largo del tallo
ya desarrollado, o estudiando un corte transversal de una yema, donde se puede analizar la situación
respectiva de varias hojas jóvenes.
En este contexto surge nuestra situación problema, la cual enunciamos de la siguiente manera:
Estudiar y fundamentar patrones biológicos presentes en la naturaleza que no fueron analizados ni se
reportan estudios en Internet. Esperamos que en ese estudio incluyas al menos a una flor o fruto y a una
planta. Asimismo, el trabajo tiene que tener evidencias de lo analizado (fotos, tablas, etc.) y fundamentos
matemáticos de los patrones detectados, evitando caer en aquellos triviales o demasiado simples.
Si realizas el estudio sobre alguna especie y no logras encontrar un patrón, incluye también su desarrollo y
fundamentación de por qué no contiene lo que buscabas en ella.
Notemos que el problema conlleva a buscar información sobre patrones en la naturaleza y, posteriormente,
escoger especies vegetales no reportadas en una búsqueda simple por Internet para efectuar el estudio.
7.2. Contextualización de la situación problema
7.2.1. Entre las hojas aquellos divertidos conejos
En 1202, el matemático italiano Leonardo de Pisa, o más conocido como Fibonacci, publicó su obra
Liberabaci (el libro de los cálculos). En sus quince capítulos explica las operaciones básicas de la aritmética
y, solo como un divertimento matemático menor, el siguiente enunciado: “En un corral se deja una pareja de
conejos recién nacidos, macho y hembra. Pasado un mes los conejos son adultos y se aparean. Acabado el
segundo mes la coneja pare una nueva pareja, macho y hembra, y acto seguido se vuelve a aparear con el
macho”. El proceso se va reiterando y cada pareja se aparea por primera vez al mes de nacer, y luego lo
hace cada mes, originando, cada mes, una nueva pareja descendiente. Se trata de saber la cantidad de
parejas que hay al final de cualquier número de meses (Figura 2).

Figura 2: Conejos en la Sucesión de Fibonacci


Así el número resultante de conejos en cada generación era: 1; 1; 2; 3; 5; 8; 13; 21; 34; 55; 89; 144… La
secuencia “crece” siempre según sus números progenitores inmediatamente anteriores. Aparenta una
inofensiva secuencia de aspecto corriente hasta que se empieza a examinar la relación entre cada número y

99
Luis Córdoba y Marcel Pochulu

su sucesor. El interés aumenta si dividimos cada número por su precedente inmediato (redondeando a cinco
decimales), como podemos observar:
1/1 = 1
2/1 = 2
3/2 = 1,5
5/3 ≅ 1.666
8/5 = 1.6
13/8 = 1.625
21/13 ≅ 1.61538
34/21 ≅ 1.61905
55/34 ≅ 1.61765
89/55 ≅ 1.61818
144/89 ≅ 1.61798
233/144 ≅ 1.61806

Cada división sucesiva oscila ligeramente antes de estabilizarse aparentemente en torno a 1.618. Una
representación gráfica (Figura 3) podría ayudarnos a hacer presente el comportamiento de los términos de la
sucesión asociada que llamemos cn, conformada a partir de los valores que hemos hallado:
3 5 8 13 21 34 55 89
𝑐1 = 1, 𝑐2 = 2, 𝑐3 = , 𝑐4 = , 𝑐5 = , 𝑐6 = , 𝑐7 = , 𝑐8 = , 𝑐9 = , 𝑐10 = ,⋯
2 2 5 8 13 21 34 55

Figura 3: Gráfica de los primeros términos de la sucesión 𝑐𝑛


De la Figura 3 resulta evidente la convergencia, pero no está claro aún a qué valor lo hace. No debe
engañarnos y llevarnos a pensar que el apoyo de los nuevos recursos son pruebas suficientes para validar
conjeturas. Sin descuidar las preguntas iniciales, será necesario considerar algunos conceptos extras que
pueden ser los mediadores para tratar de descubrir cuál es ese valor detrás de bambalinas.

100
7. Filotaxis y patrones en la naturaleza

7.2.2. Una relación de recurrencia


Volviendo a la sucesión de Fibonacci, si examinamos los valores vemos que no es inmediato determinar un
modelo de formación explícito que defina a cada elemento:
a1 = 1, a2 = 1, a3 = 2, a4 = 3, a5 = 5, a6 = 8, a7 = 13, ⋯
En esta búsqueda de un modelo matemático existe un punto de partida pues an depende de alguno de los
términos anteriores. Cuando hacemos esto, decimos que el concepto está definido en forma recursiva,
usando el método o proceso de recursión. Por lo tanto, aunque no tengamos una fórmula explícita, en el caso
de la sucesión a1 , a2 , a3 , a4 , a5 , a6 , a7 , ⋯, existe una forma de definir estos enteros y es por recursión:
an = an−1 + an−2 , donde n ≥ 3 y las condiciones iniciales a1 = a2 = 1.
Si volvemos a la Figura 3 que nos alerta sobre la existencia de un valor límite, llamemos L, estamos en
condiciones de poder calcularlo, pues a medida que n crece en valores discretos, cn tiende a un L que aún
es sospechoso, pues no devela su verdadera identidad en el conjunto de todos los números reales.
Con el aporte del cálculo podemos hallar que:

𝑎𝑛 𝑎𝑛−1 + 𝑎𝑛−2 𝑎𝑛−2 1 1


𝐿 = lim = lim = lim [1 + ] = lim [1 + 𝑎 ]=1+
𝑛→∞ 𝑎𝑛−1 𝑛→∞ 𝑎𝑛−1 𝑛→∞ 𝑎𝑛−1 𝑛→∞ 𝑛−1 𝐿
𝑎𝑛−2
Entonces:
1 1 5
L  1  L2  L  1  0  L 
L 2
He aquí la clave de la armonía viva. El sospechoso se devela en su forma. Se lo conoce con varias
acepciones: el número de oro, sección áurea, número dorado, razón áurea, razón dorada, proporción áurea y
divina proporción.
7.2.3. El todo es a la parte como la parte al resto
El número 𝜑 se caracteriza por ser irracional y su nombre fue puesto en honor del escultor griego Fidias,
quien se encargó de la reconstrucción de la Acrópolis de Atenas.
El primero en hacer un estudio formal de este número fue Euclides (c. 300-265 a. C.), quien lo definió en el
libro sexto de Los Elementos de la siguiente manera: "Se dice que una recta ha sido cortada en extrema y
media razón cuando la recta entera es al segmento mayor como el segmento mayor es al segmento menor".

Euclides fue también quien demostró que no puede ser descrito como la razón de dos números enteros y, por
ello, es un número irracional. Sin embargo, este número no nos arroja información en el sentido de
determinar cualquier valor de 𝑎𝑛 conociendo solamente n, pues requiere el conocimiento, cuanto menos, de
los dos anteriores.
Por esto es deseable encontrar una regla de correspondencia que nos indique cómo calcular el n-ésimo valor
de la sucesión, sin necesidad de conocer los valores previos.

101
Luis Córdoba y Marcel Pochulu

Busquemos el apoyo de nuevos recursos que nos permita describir un posible comportamiento para la
sucesión de Fibonacci. La nube de puntos nos da una idea del comportamiento que podemos elegir como
curva de mejor ajuste (Figura 4).

Figura 4: Grafica de los primeros términos de la Sucesión de Fibonacci y ajuste funcional

Podemos verificar que, al tomar una tabla de valores a intervalos discretos, el modelo elegido funciona muy
cercano a los valores esperados. No obstante, en matemática, existe un área que se ocupa del tratamiento y
descripción que permite hallar el modelo exacto, nos referimos a Matemática Discreta, en donde resolver una
ecuación de recurrencia significa encontrar una fórmula explícita para el término general 𝑎𝑛 .
Ensayemos un método que se aplica a relaciones de recurrencia homogéneas lineales con coeficientes
constantes. Esta clase especial de relación de recurrencia mencionada tiene la forma:
an = c1 an−1 + c2 an−2 + c3 an−3 + ⋯ + ck an−k ; ck ≠ 0
Observemos que una relación de recurrencia homogénea lineal de orden k con coeficientes constantes junto
con k condiciones iniciales a0 = c0 , a1 = c1 , a3 = c3 , ⋯ , ak−1 = ck−1 define de manera única una
sucesión a1 , a2 , a3 , a4 , a5 , ⋯
La sucesión de Fibonacci, llamemos 𝐹𝑛 , objeto de nuestro estudio como un modelo posible de patrón que
describe un comportamiento biológico, entra dentro de esta clasificación como una relación de recurrencia de
orden dos, ya que son los felices conejos que aportan el inicio a la prole: a1 = a2 = 1.
Con frecuencia en matemática, al tratar de resolver un caso más difícil de algunos problemas, se comienza
con una expresión que resuelva una versión más sencilla. Veamos, entonces, que una progresión geométrica
es una sucesión infinita de números donde el cociente de cualquier término (distinto del primero) entre sus
predecesores es un valor constante, llamada razón común.
𝑎 𝑎 𝑎𝑛+1
Si a1 , a2 , a3 , a4 , a5 , ⋯ es una progresión geométrica, entonces 𝑎2 = 𝑎3 = ⋯ = 𝑎𝑛
=⋯=𝑟
1 2

Se puede probar que para cualquier n > 0, 𝑎𝑛 = 𝑐 ∙ 𝑟 𝑛 es la solución general donde el valor de 𝑎𝑛 es una
función de n ya no depende de los términos anteriores, a partir un a0 o un a1 inicial.
Hecha esta observación, retomemos la búsqueda de una fórmula para Fn.
𝐹𝑛 = 𝐹𝑛−1 + 𝐹𝑛−2 𝑦 𝐹1 = 𝐹2 = 1
son las condiciones iniciales de una sucesión de Fibonacci.

102
7. Filotaxis y patrones en la naturaleza

Sea 𝑉𝑛 = 𝑐 ∙ 𝑟 𝑛 la forma de la solución buscada. En consecuencia:


𝑉𝑛 = 𝑉𝑛−1 + 𝑉𝑛−2
𝑐 ∙ 𝑟 = 𝑐 ∙ 𝑟 𝑛−1 + 𝑐 ∙ 𝑟 𝑛−2
𝑛

Operando algebraicamente tendremos:


𝑟 𝑛 = 𝑟 𝑛−1 + 𝑟 𝑛−2
𝑟 𝑛 − 𝑟 𝑛−1 − 𝑟 𝑛−2 = 0
𝑟 𝑛−2 (𝑟 2 − 𝑟 − 1) = 0
De donde:
𝑟2 − 𝑟 − 1 = 0
1±√5
Hemos logrado la ecuación característica, cuya solución es: 𝑟 = 2
. En consecuencia existen dos
soluciones posibles que llamaremos 𝑆 y 𝑇.
2 2
1 + √5 1 − √5
𝑆𝑛 = 𝑐 ∙ ( ) 𝑇𝑛 = 𝑐 ∙ ( )
2 2

De modo que si son soluciones, entonces 𝑥. 𝑇 + 𝑦. 𝑆, también es solución para cualquier 𝑥 e y real.
𝐹𝑛 = 𝑥 ∙ 𝑇 + 𝑦 ∙ 𝑆
2 2
1 + √5 1 − √5
𝐹𝑛 = 𝑥 ∙ ( ) +𝑦∙( )
2 2
Para satisfacer las condiciones iniciales:
2 2
1 + √5 1 − √5
𝐹1 = 𝑥 ∙ ( ) +𝑦∙( ) =1
2 2
2 2
1 + √5 1 − √5
𝐹2 = 𝑥 ∙ ( ) +𝑦∙( ) =1
2 2
De modo que se constituye en un sistema de dos ecuaciones con dos incógnitas. Con ayuda de nuevos
recursos es posible encontrar las soluciones, las cuales son:

1 1
𝑥= 𝑦=−
√5 √5

Por lo tanto, una fórmula explícita para la sucesión de Fibonacci es:


𝑛 𝑛
1 1 + √5 1 − √5
𝑎𝑛 = ∙ [( ) −( ) ]
√5 2 2
Este modelo rige muchos aspectos de la ciencia y el arte. La fortaleza mayor desde el punto de vista
matemático es que, por un lado, permite comprender cierto fenómeno explicado a través de su descripción y,
por otra parte, es posible predecir el estado o los comportamientos futuros de un sistema o fenómeno.
La sucesión de Fibonacci y el número de oro nos aportan dos caras de la misma moneda. Ambos expresan
la misma ley de crecimiento y armonía.

103
Luis Córdoba y Marcel Pochulu

7.3. Aproximaciones matemáticas al problema


7.3.1. Patrones en frutos y flores
Iniciemos nuestro trabajo buscando algunos patrones en frutos y flores. La Figura 5 muestra una piña de pino
con 8 espirales en sentido antihorario y la Figura 6, las 13 espirales en el sentido de las agujas del reloj. El
número de espirales en cada uno de los dos sentidos de giro de esta piña son términos contiguos de dos
elementos de la sucesión de Fibonacci.

Figura 5: Espirales en sentido antihorario en una piña de pino

Figura 6: Espirales en sentido horario en una piña de pino

104
7. Filotaxis y patrones en la naturaleza

La disposición de las semillas de un girasol está estructurada con 34 espirales hacia la derecha (Figura 7) y
21 hacia la izquierda (Figura 8). 21 y 34 son dos números consecutivos de la sucesión de Finonacci.

Figura 7: Espirales en sentido horario en un Girasol

Figura 8: Espirales en sentido antihorario en un Girasol

Es de destacar que no siempre son estos dos números, pues podemos encontrar otros como el 55 y 89.
Al parecer, la razón para esta distribución está en la forma de buscar un empaquetamiento óptimo de las
semillas, compatible con el crecimiento de la cabeza de ellas. Las semillas tienen que ir distribuyéndose
alrededor del centro de forma tal que no dejen espacios libres y ocupen el menor espacio posible. Para ello
se van distribuyendo alrededor del centro con un cierto ángulo respecto a la semilla anterior, el cual está
relacionado con el número de oro, pero ese es otro tema que no abordaremos en el problema.

105
Luis Córdoba y Marcel Pochulu

Lo mismo se puede apreciar en flores, por ejemplo, en la Margarita con 13 espirales en sentido horario
(Figura 9) y 21 antihorario (Figura 10). Tampoco son siempre estos números, pero sí dos números
consecutivos de la sucesión de Fibonacci.

Figura 9: Espirales en sentido horario en un Margarita

Figura 10: Espirales en sentido antihorario en un Margarita

7.3.2. Patrones en hojas


Sabemos que en una planta cada hoja compite con otras vecinas por la captación de la luz. No obstante,
cabe preguntarse: ¿Cuál es la disposición más idónea para que todas las hojas capten el máximo de luz
posible? ¿Cuál es la mejor disposición sobre un cierto espacio que optimice la mayor cantidad de semillas?

106
7. Filotaxis y patrones en la naturaleza

En principio, aunque estas posiciones son muy variadas, para nuestro estudio consideraremos dos grandes
grupos de disposición foliar: alterna y verticilada. Veamos una descripción sucinta de cada disposición.
1) Disposición alterna o de hojas esparcidas: En esta disposición se inserta una hoja en cada nudo o
verticilo. Al mismo tiempo, distinguimos dos tipos:
• Dística: las hojas se insertan sobre el tallo a lo largo de dos líneas opuestas. Podemos tener
dísticas opuestas (imagen “c” de la Figura 11) o dísticas alternas.
• Helicoidal: las hojas se insertan sobre el tallo ordenadas regularmente sobre una hélice o espiral
dextrorsa o sinistrorsa (ver imagen “a” de la Figura 11). Una hélice puede girar hacia la derecha o en
sentido horario (dextrorsa, dextrógira); a la izquierda o sentido antihorario (sinistrorsa, levógira).
2) Disposición verticilada: dos o más hojas se insertan simultáneamente en cada nudo. De acuerdo al
número de hojas por nudo tendremos:
• Decusada: 2 hojas por nudo o verticilo. Cada par de hojas no coincide en su posición con el anterior
y con el siguiente, sino que los pares se cruzan entre sí perpendicularmente de modo que las hojas
están dispuestas en dos planos verticales normales entre sí. Es decir, las hojas son opuestas y en
cada nudo giran su posición 90º con respecto al nudo anterior. Por ello, visto desde arriba, tiene una
forma de X, de donde viene su nombre “dec”, que proviene del número romano diez “X” (imagen “b”
de la Figura 11).
• Verticilada: 3 hojas o más en cada nudo o verticilo (imagen “d” de la Figura11).

Figura 11: Posiciones de las hojas en el tallo


A primera vista las hojas alternas, sobre todo cuando son numerosas y se hallan muy próximas unas a otras,
parecen esparcidas sin orden alguno. Si estudiamos con detención estas disposiciones veremos que los
puntos de inserción están sujetos a una ley geométrica admirable por su sencillez y su constancia. Ya en
1779, Bonnet21 observó que si tomamos una rama joven y bien desarrollada de algunas especies de árboles
y le hacemos pasar una línea imaginaria por todos los puntos de inserción de las hojas, esta describe en la
superficie de la rama una espiral continua o hélice.
Hizo también notar que cada una de las hojas que la precede y la que le sigue produce dos ángulos, cuyo
valor es aproximadamente el mismo en todas las hojas de la espiral (ángulo de divergencia). Estas
observaciones de Bonnet fueron un punto de partida de una serie de trabajos que se hicieron después en
Alemania y en Francia, particularmente por Karl Schimper (1803-1867) y por Auguste Bravis (1811-1863), los
cuales establecieron los fundamentos de la filotaxis.

21 Charles Bonnet (1720-1793) biólogo y filósofo suizo.

107
Luis Córdoba y Marcel Pochulu

Si volvemos a considerar la espiral continua que sucesivamente va pasando por todos los puntos de la
superficie en que aparecen insertadas las hojas, notaremos que el número de vueltas que esta espiral
describe tiene también una relación constante, quedando divididas en partes iguales por los puntos que
marcan las inserciones de las hojas, cuya posición coincide con aquella de la cual hemos partido.
Se ha denominado ciclo o fracción filotáctica la expresión matemática de cada una de estas porciones
iguales en la que resulta dividida la espiral. Estos ciclos se pueden representar aritméticamente por un
número fraccionario, cuyo numerador sea el número de vueltas que describe la espiral y cuyo denominador
es el número de hojas por cuya inserción pasa la espiral hasta encontrar una hoja que coincida con la inicial.
Esta fracción filotáctico no es la misma para todas las plantas y, aunque cada una tiene un número constante
para la expresión de su ciclo, es claro que una misma fracción puede servir para especies muy diferentes. El
número de fracciones filotácticas que puede representar esta disposición es limitado para una disposición
alterna helicoidal. La generalidad de los casos se expresan por los términos de una sucesión de fracciones
1 1
en la que, partiendo de 2 y 3, se obtiene el numerador del tercer término sumando los numeradores de los
dos primeros, y el denominador, sumando los denominadores de los dos primeros, y así sucesivamente:
1 1 2 3 5 8 13
, , , , , , ,⋯
2 3 5 8 13 21 34
Una notación alternativa para cada uno de estos términos consiste en disponerlos a través de fracciones
continuas de la forma:
1
1
2
1
1
1
1
1  ...
De modo que para el tercero se obtiene:
1 1 1 2
  
1 1 5 5
2 2
1 2 2
1
1
Para el cuarto:
1 1 1 1 1 3
    
1 1 1 2 8 8
2 2 2 2
1 1 3 3 3
1 1
1 2 2
1
1
Y así sucesivamente. Esto sugiere que la “ley numérica” de la disposición espiral de las hojas, en la mayoría
de las plantas, se expresa por una fracción continua cuyo primer término es 1/2 y todos los demás, la
unidad dividida por sí misma.
Si tomamos la hoja de un tallo y contamos el número de hojas consecutivas hasta encontrar otra hoja con la
misma orientación, este número es, por regla general, un término de la sucesión de Fibonacci. Además, si
mientras contamos dichas hojas vamos girando el tallo (en el sentido contrario a las agujas del reloj, por
ejemplo), el número de vueltas que debemos dar a dicho tallo para llegar a la siguiente hoja con la misma
orientación resulta ser también un término de la sucesión de Fibonacci.
Las disposiciones filotáxicas pueden también representarse geométricamente por medio de diagramas. Si
suponemos que la espiral se proyecta sobre un plano normal al eje de la rama, la espiral plana así producida

108
7. Filotaxis y patrones en la naturaleza

presentará todos los puntos ortósticos22 que sirven de inserción a las hojas orientadas, como si las vueltas de
la espiral se cortasen por dos o más líneas rectas que parten del centro de la espiral.
Los puntos de inserción de las hojas en estos diagramas aparecen como dos radios opuestos en la posición
que se llama dística (hojas alternas) y que poseen el ciclo 1/2. La disposición trística tiene tres radios que
forman ángulos de 120º, cuando el ciclo es 1/3 (Figura 12).
En estos modelos de diagramas es posible distinguir que siempre que el numerador de la fracción
representada es 1, los radios cortan a todas las vueltas de la espiral.

Figura 12: Disposición dística y trística en la filotaxis


Cuando el numerador es 2, cortan a una vuelta sí y a otra no, tal como sucede en la imagen de la izquierda
de la Figura 13 y corresponde a la disposición quincuncial, con ciclo de 2/5. Si el numerador del ciclo fuese 3,
los radios solo cortarían una vuelta de cada tres de la espiral (imagen derecha de la Figura 13).

Figura 13: Disposición en la filotaxis con ciclos de numerador mayor a 1

22 Ortóstico: línea imaginaria en la filotaxis por la que pasan los puntos de inserción de las hojas o elementos foliares.

109
Luis Córdoba y Marcel Pochulu

En estos dos últimos casos las hojas también presentan regularidad en la distribución por el tallo, formando
una hélice con las inserciones consecutivas. La proyección de esa hélice en un plano horizontal da origen a
la espiral generatriz que venimos comentando junto al ángulo de divergencia. Si relacionamos las hojas
superpuestas verticalmente por líneas ortósticas, verificaremos que para llegar desde una hoja de una
ortóstica hasta la que se superpone (en la misma ortóstica), la espiral generatriz debe hacer una o más
vueltas. En ese trayecto encontraremos un número diferente de hojas, variable según las especies
vegetales. Así, cuando el ciclo de la hélice es 2/5 son necesarias dos vueltas y pasan por cinco hojas, o tres
vueltas en la de ciclo 3/8.
Veamos algunas disposiciones de filotaxis en especies estudiadas.

Tabla 1: Disposiciones de filotaxis en especies

Ciclo o fracción Ejemplos


filotáctica

𝟏 Nogal (Juglans regia)


Aliso (Alnus glutinosa)
𝟐 Tilo (Tilia)
𝟏 Juncia (Cyperus rotundus)
𝟑 Papiro (Cyperus alternifolius)
Roble (Quercus)
𝟐 Rosales (Rosa)
𝟓 Ciruelo (Prunus doméstica)
Peral (Pyrus communis)
𝟑
Lino o linasa (Linum usitatissimum)
𝟖
𝟓
Gordolobo (Verbascum thapsus)
𝟏𝟑
𝟖
Cono de ciertos pinos
𝟐𝟏
𝟏𝟑
Tallos primarios de ciertos pinos
𝟑𝟒

Determinar el ángulo de divergencia se puede hacer de dos maneras:


a. Siguiendo la espiral generatriz y buscando 2 hojas situadas sobre el mismo espiróstico (hojas
dispuestas sobre una misma línea longitudinal23). Posteriormente, se cuentan los giros efectuados
por la espiral generatriz o hélice sobre el tallo y el número de intervalos hallados entre las hojas
consideradas. Por ejemplo, el valor del ángulo será de 144º en un ciclo de fracción filotáctica 2/5.
b. Se mide directamente el ángulo sobre un corte transversal practicado en una yema. Para ello hay
que definir el centro del tallo sobre el ápice del meristema apical (responsable de la formación del
cuerpo primario de la planta). La mayor parte de los vegetales con filotaxis helicoidal tienen un
ángulo de divergencia de 137º a 140º. Muy poco probable es un ángulo que mide entre 98º y 100º.
El estudio realizado por Jean (1983), basado en una compilación de investigaciones desarrolladas durante
150 años, arroja que de 12.750 observaciones efectuadas de 650 especies con filotaxis espiral o multijugada,

23 Las hojas se disponen sobre líneas longitudinales llamadas espirósticos que, a diferencia de los ortósticos, no son exactamente
verticales.

110
7. Filotaxis y patrones en la naturaleza

el 92% de los casos son espirales asociadas con Fibonacci. Un 6% más eran bijugadas de Fibonacci y un
1.5% más eran espirales con la sucesión de Lucas.
La sucesión de Lucas tiene una gran similitud con la sucesión de Fibonacci y comparte muchas de sus
características. Se la define de la siguiente manera:
𝑙0 = 2
𝑙1 = 1
𝑙𝑛 = 𝑙𝑛−1 + 𝑙𝑛−2 , para 𝑛 = 2, 3, 4, 5, ⋯
7.4. Algunas consideraciones y libertades en el aula
Andrews & Mclone (1976) expresan que debieron trabajar con aplicaciones de la matemática en ambientes
universitarios como una respuesta al bajo desempeño de los estudiantes, quienes tenían dificultades en
aplicar conceptos matemáticos a los problemas de las empresas en que trabajaban. Una transferencia de los
procedimientos de la matemática aplicada también está siendo hecha en la matemática escolar en respuesta
a las preocupaciones socioculturales y al bajo desempeño de los alumnos en esta ciencia. Esa transferencia
viene en la forma de propuestas metodológicas denominadas “modelaje” o modelización matemática y
provoca cambios o ajustes según las etapas ya enunciadas en el capítulo 1 de este libro, para adaptar el
ambiente del aula trabajando cuestiones como elemento motivador y de relevancia.
La esencia de esta metodología de trabajo consiste en un proceso en el cual las características pertinentes
de un objeto o sistema son extraídas, con ayuda de hipótesis y aproximaciones simplificadas, y
representadas en términos matemáticos (modelo). La hipótesis y aproximaciones significan que el modelo
creado por ese proceso es siempre abierto a la crítica y al perfeccionamiento, lo cual genera un campo fértil,
no exento de errores. En este marco de referencia, Andonegui (1992) explica que el error pierde su estigma
negativo y se considera como un resultado que emerge de los intentos del alumno por construir significados
alternativos y no como una falla en el proceso de comunicación entre el estudiante y el docente. La actitud
ante el error no es su destrucción inmediata, sino un insumo para utilizarlo como punto de partida para un
trabajo de investigación y descubrimiento.
Identificar los aspectos principales de la filotaxis y la caracterización a través de expresiones matemáticas es
el punto de partida para el estudio de este sistema. Podríamos hacer una breve descripción de las etapas por
las que transcurrimos en la construcción del modelo. Partimos de la observación del mundo real que nos
permitió seleccionar aquellas características relevantes de los aspectos a analizar. Pasamos a vincular de
manera clara y simplificada, la relación matemática que liga a las variables presentes en la situación de
estudio. A partir de esta formulación preliminar, relevamos la información que nos auxilió en la formulación.
Otra parte lo constituyó la utilización de herramientas exclusivamente matemáticas: definiciones, algoritmos y
propiedades, que nos llevaron a formular un modelo. Finalmente, con los valores presentes en el modelo
debimos contrastar información, considerando los valores observados. Esta última etapa es la más emotiva,
pues postula la posibilidad de decidir sobre la bondad o no del modelo desarrollado.
7.5. Referencias bibliográficas
Andonegui, J. (1992). Aportes a un marco teórico para el análisis de errores en el aprendizaje de la
Matemática. Educación Matemática, 9(3), 1-15.
Andrews, J. G. & Mclone, R. R. (1976). Mathematical modelling. London, England: Butterwordths.
Jean, R. (1983). Croissance végétale et morphogénèse. Québec, Canadá: Presses de l'Université du
Québec.
Kipling, R. (1999). Sólo Cuentos (para niños). Madrid, España: Anaya.

111
8. Demoecología y programas de erradicación de la Mosca del Mediterráneo

8
Demoecología y programas de
erradicación de la Mosca del Mediterráneo

Marcel Pochulu
8.1. Introducción
La demoecología, ecología de poblaciones o ecología demográfica, es una rama de la demografía y de la
ecología dedicada a estudiar las poblaciones formadas por los organismos de una misma especie, que
ocupan un lugar y tiempo determinado. Esto involucra analizar la población desde el punto de vista del
tamaño (número de individuos), estructura (sexo y edad) y dinámica (variación en el tiempo).
Una aplicación importante de la demoecología refiere al desarrollo de las poblaciones de plagas en el tiempo
y en su ambiente. Refiriéndose a este aspecto, Nicholls (2008, p. 11) expresa:
El estudio del desarrollo de la población de una plaga es una parte importante de la ecología de
la plaga, cuyo conocimiento resulta esencial para el diseño de sistemas de manejo de plagas
que se basan en la manipulación de los factores de mortalidad. Por medio de la identificación y
análisis de los factores relevantes de la mortalidad, se analiza tanto el tiempo pronosticado como
el tiempo verdadero necesario para el desarrollo de la población.
Debido al incremento de mercaderías en el comercio internacional, las plagas y agentes patógenos logran
atravesar océanos o tierras distantes con la misma facilidad y rapidez que lo hacen los aviones, buques,
autos y personas. Entre estas plagas tenemos la Mosca de la fruta o del Mediterráneo (Ceratitis capitata) que
es originaria de la costa occidental de África y logró diseminarse desde allí a otros climas templados,
subtropicales y tropicales. A pesar de su origen, se le llama también Mosca Mediterránea de la fruta, ya que
en los países mediterráneos fue donde su incidencia económica se hizo más patente. De todos modos, es
una especie cosmopolita que habita no solo en Europa, sino en Medio Oriente, oeste de Australia, América y
Hawai. Se la detectó por primera vez en América en el año 1901 y en 1934, en Argentina.
El informe de 2013 de la FOA (Food and Agriculture Organization) y de la IAEA (International Atomic Energy
Agency) establece el mapa de distribución mundial de la Mosca de la fruta o del Mediterráneo (Figura 1).

113
Marcel Pochulu

Figura 1: Distribución en el mundo de la Mosca de la fruta

Al haber invadido gran parte del territorio del mundo, este insecto se convirtió en una amenaza tanto para la
agricultura como la economía de la sociedad, y se realizan diversos programas para mantener protegidas las
regiones que ataca. Causa importantes pérdidas económicas especialmente en cultivos de damascos,
ciruelas, duraznos, higos, tomates, pimientos, peras, manzanas, uvas, membrillos, mandarinas, naranjas,
pomelos, quinotos, kakis, granadas, nísperos y prácticamente en todos los frutos tropicales o subtropicales:
mango, guayaba, aguacate, papaya, chirimoya, dátil, entre otros (Ros, 1988).
Como son frutas de diferentes estaciones, la actividad de la Ceratitis capitata se mantiene casi durante todo
el año y se establecen controles fitosanitarios para el ingreso a regiones de cultivos de frutas y hortalizas en
algunas zonas. La sola presencia de este insecto en cualquier zona frutícola, si no se adoptan las medidas
de control de manera oportuna, ocasiona grandes pérdidas por los daños que causa no solo a las frutas sino
a la economía de los productores.
Ahora bien, si pasáramos un control fitosanitario con una fruta, supongamos una manzana o naranja,
afectada por la Mosca del Mediterráneo ¿Qué grado de relevancia e impacto tendría este hecho para el
control de la Mosca del Mediterráneo? Aquí comienza nuestro problema y proponemos la siguiente consigna:

Analizar y fundamentar el impacto que tendría en el control de la Mosca del Mediterráneo en una zona
frutícola, donde se llevan a cabo controles y programas fitosanitarios, si se ingresa con una fruta afectada por
este insecto. Entendemos que la respuesta tiene que estar fundamentada a través de un estudio
demoecológico de la Mosca de la fruta más que la búsqueda de esta información en Internet.

8.2. Contextualización de la situación problema


8.2.1. Ciclo de vida de la Ceratitis capitata
La mosca de la fruta es un insecto holometábolo24 y atraviesa por cuatro estados biológicos diferenciables:
huevo, larva, pupa y adulto (Figura 2).

24 El holometabolismo o metamorfosis completa es un tipo de desarrollo característico de los insectos superiores, en el que se
suceden las fases de embrión, larva, pupa e imago (adulto).

114
8. Demoecología y programas de erradicación de la Mosca del Mediterráneo

Figura 2: Ciclo biológico de la mosca de la fruta25

Landa (2017), Calcagno (2001), Ros (1988) y numerosos entomólogos más describen estas etapas del
siguiente modo:
Etapa de huevo: La hembra fecundada deposita en grupos de 3 a 10 huevos en la pulpa de la fruta, debajo
de la cutícula, atraídas por el olor y el color. Prefieren el color amarillo y el naranja, razón por la cual las frutas
no maduras no suelen blanco de ataque. Una hembra logra poner hasta 20 huevos diarios y un máximo de
300 a 400 huevos durante su vida. Asimismo, los sitios para depositar los huevos pueden incluir una pila de
basura, heces u otros materiales orgánicos en descomposición o húmedos.
Etapa larvaria: De los huevecillos dentro de la fruta nacen entre los dos a cuatro días pequeños gusanos
que se alimentan de 6 a 11 días destruyendo la fruta. La fruta se cae y de 10 a 20 días después, al alcanzar
su tamaño máximo, salen de ella y se entierran aproximadamente a 2.5 centímetros de profundidad.
Etapa de pupa: La larva entra posteriormente al estado de pupa para desarrollarse como adulta. Esta etapa
dura de 9 a 11 días y se encuentra generalmente en las primeras capas del suelo.
Etapa adulta: La mosca emerge del suelo y pasa del estado de pupa a capullo. Cuando salen del puparium26
hacia el exterior ya están convertidas en moscas adultas con todas sus partes bien formadas y se alimentan
de jugos azucarados. Su vertiginoso desarrollo es tan efectivo que en 4 o 5 días están listas para
reproducirse y colocar sus primeros huevos en frutas que han alcanzado su madurez fisiológica.
El ciclo de vida completo de huevo a adulto requiere más o menos 16 días a la temperatura del verano y hay
un período de pre-ovoposición de 8 a 12 días. La temperatura tiene una importante incidencia sobre los

25 Fuente de la imagen: http://www.conicet.gov.ar/wp-content/uploads/mosca-de-la-fruta.jpg


26 Tegumento o tejido orgánico endurecido dentro del que se forma la pupa, a partir de la piel del último estado larval.

115
Marcel Pochulu

procesos bioquímicos, pues los insectos son organismos poiquilotermos27. Por tanto, la duración del ciclo de
vida completo de la Ceratitis capitata guarda estrecha relación con la temperatura y son numerosos los
estudios que abordan la temática. Por ejemplo, Calcagno (2001) expresa que a 23 ºC el ciclo de vida de la
Ceratitis capitata es de 25 días (desde la ovipuesta hasta la emergencia de la mosca). A su vez, el ciclo
puede ser desagregado en desarrollo embrionario de 52 horas, etapa larval de 264 horas y pupa de 312
horas. La longevidad difiere entre los sexos y depende también de la temperatura, aunque se agregan otros
factores como nutrición y actividad reproductiva.
Muñiz y Gill (1984) hacen un exhaustivo estudio sobre diversas variables que intervienen en el desarrollo y
evolución de la Ceratitis capitata. En particular, discuten la “Ley de la constante térmica” de Blunck-
Bodenheimer y su aplicación a las diferentes fases del ciclo biológico de especies con metamorfosis, como la
de las moscas. Para cada fase o período ajustaron los datos observados a hipérbolas del tipo:
(𝑇 − 𝑐0 )(𝑡 − 𝑡0 ) = 𝐾0
donde t es la duración, en días, de la fase o período; T es la temperatura en °C; 𝑡0 , 𝑐0 y 𝐾0 son parámetros
que se estiman de las temperaturas mínima y máxima entre las cuales el desarrollo de las distintas fases y
períodos es normal. Estos valores pueden verse reflejados en la Figura 3.

Figura 3: Hipérbolas para diferentes fases y períodos de desarrollo 28

El estudio de Muñiz y Gill (1984) estableció que para una temperatura mínima de 16.348 °C y máxima de
36.910 °C, la Ceratitis capitata evolucionaría con normalidad. Además quedan establecidas dos zonas en
donde el desarrollo no es favorable o viable (por debajo de la zona térmica inferior y por encima de la
superior). También establecieron que por debajo de una temperatura de 16.348°C, la velocidad de desarrollo
de la mosca se hace progresivamente más lenta, hasta alcanzar el valor crítico de 11.975°C (nulo desarrollo
del ciclo evolutivo completo). Asimismo, fijaron una temperatura de 36.91°C por encima de la cual el
desarrollo del ciclo es problemático y, cuando se sobrepasan los 39.336°C, se produciría la muerte del
insecto en alguna de sus fases.

27 Animal cuya temperatura corporal varía según la del medio ambiente, pues carece de mecanismos reguladores de la misma.
28 Imagen mejorada de Muñiz y Gill (1984, p. 136).

116
8. Demoecología y programas de erradicación de la Mosca del Mediterráneo

8.2.2. Programas de erradicación de la Ceratitis capitata


Son numerosos los organismos internacionales que impulsan programas de combate integrado de
Moscamed con el fin de alcanzar el reconocimiento internacional de área de libre de Moscas de la fruta.
Resumimos los principales que son reportados por diferentes autores. En particular, tomamos los descriptos
en San Andrés (2007).
Control químico: Se utilizan insecticidas, como el malatión, con la utilización de tratamientos terrestres y
aéreos (dirigidos a los adultos). No obstante, este método ha dado lugar a la aparición de poblaciones
resistentes y, por otro lado, se cuestiona la aplicación masiva e indiscriminada de insecticidas de amplio
espectro, pues no solo perjudica el ambiente, sino que sus residuos complican la comercialización del
producto final.
Trampeo masivo: Consiste en la utilización de trampas cebadas con un atrayente específico para las
moscas con el propósito de capturar el mayor número de individuos y reducir los niveles poblacionales de
hembras. Como recipiente o sistema de captura suelen emplearse mosqueros, o bien sustancias pegajosas
que atrapan a los adultos, buscando no superar los límites máximos de residuos prohibidos en fruta y
desequilibrios en la entomofauna benéfica.
El trampeo masivo ha dado buenos resultados en cítricos y frutales y en lugares donde no son accesibles los
tratamientos convencionales a base de insecticidas. Sin embargo, su alto costo lo convierte en un método de
control no viable a gran escala, por lo que su utilización está limitada a zonas concretas.
Control biológico: Consiste en la liberación de moscas afectadas de parásitos y alcanzó un gran éxito en el
control de esta plaga en muchos países y en diferentes épocas. En particular se emplean como parásito a
larvas Diachasmimorpha longicaudata (Ashmead), pues son inocuas para las personas y el ambiente.
Quimioesterilización: Se aplica un quimioesterilizante (lufenurón) mediante su incorporación a un cebo
atrayente de los individuos que es el responsable de provocar la esterilidad de las moscas. La comparación
de los resultados de este método con los obtenidos en otras parcelas en las que se realizaron tratamientos
aéreos con malatión indicaron que resulta más efectiva, aunque sosteniéndola por un período de tres años o
más. Además, esta técnica presenta una analogía con la técnica del insecto estéril, debido al principio de
esterilización en la que se basa y, por lo tanto, podría utilizarse como apoyo al control autocida.
Control autocida o Técnica del Insecto Estéril: Consiste en la cría masiva, esterilización y posterior
liberación de ejemplares machos de Ceratitis capitata, quienes al cruzarse con hembras fértiles no dejan
descendencia. Las hembras se aparean una sola vez en su vida y al hacerlo con un macho estéril no
producen descendencia, por lo cual se reduce la población de la siguiente generación. La técnica se debe
complementar con control químico y con la recolección y destrucción de frutos hospederos.
8.3. Aproximaciones matemáticas al problema
Para abordar el problema necesitamos tomar algunas decisiones sobre las variables a considerar.
Abordaremos el problema en dos etapas. En la primera, estudiaremos la dinámica poblacional en
condiciones ideales, sin incluir sistemas de control de plagas. En la segunda etapa, incorporaremos al menos
dos controles usados frecuentemente para el control de la Mosca del Mediterráneo. Con los resultados de las
dos etapas podremos cruzar información e interpretarla en el contexto de la modelización matemática
realizada.
Iniciamos el estudio con la dinámica poblacional de las moscas prescindiendo de sistemas de controles y en
condiciones ideales. En este punto es necesario incorporar algunas hipótesis o premisas iniciales:
- Una mosca deposita entre 3 a 10 huevos en una fruta. Tomaremos el caso particular de que fueron
depositados 4 huevos por este insecto.
- La temperatura de la región se encuentra entre 16.35 °C y 36.910 °C, lo cual permite un desarrollo
normal de la mosca, de acuerdo con lo establecido por Muñiz y Gil (1984).
- La fruta no fue ingerida ni arrojada a un cesto de basura, pues tendríamos el caso más desfavorable
para el desarrollo de la mosca. Tomaremos el caso particular que fue arrojada a la sombra de un
árbol, emulando el proceso biológico natural donde la fruta cae del mismo.

117
Marcel Pochulu

- La humedad y la irradiación solar son adecuadas para permitir el desarrollo normal de todo el ciclo
de la mosca.
- El ciclo completo (huevo, larva, pupa y adulto), más días en que la mosca alcanza su madurez
sexual, se desarrolla en 30 días aproximadamente.
- La oviposición de las moscas se produce durante 30 días y en frutas u hortalizas que permiten su
desarrollo. La cantidad de huevos totales que pondrá la mosca y de los cuales efectivamente
producirán nuevas moscas será de 300 huevos. Asumimos que la tasa de reproducción es la misma
para todo el proceso.
- En un año se tendría un máximo de 13 generaciones, lo cual guarda relación con el valor máximo
establecido por los estudios de Muñiz y Gil (1984).
- Asumimos que de la etapa adulta emerge igual cantidad de moscas machos que de hembras.
Contabilizaremos solo las hembras, en tanto son las que depositan los huevos. En consecuencia,
cada mosca hembra producirá 150 nuevas hembras por generación. Si partimos de 4 huevos
tendremos 2 hembras al final del ciclo (30 días), las cuales pondrán 300 huevos cada una, de los
cuales 150 serán hembras.
Realizadas estas consideraciones iniciamos el proceso de modelización. Podríamos hacer una tabla en
donde computemos día a día la cantidad de moscas hembras que se tiene en función del tiempo. Esto nos
daría comportamientos lineales para diferentes períodos. Una manera más eficiente es simplificar el
problema y computar solo la cantidad de moscas hembras por generación. Siguiendo este criterio tendremos
los valores que volcamos en la Tabla siguiente.

Tabla 1: Dinámica poblacional de la Moscamed

Generación Período (días) Cantidad de moscas hembras

1º (0,30] 2

2º (30,60] 2 ∙ 150 = 300

3º (60,90] 300 ∙ 150 = 45000

4º (90,120] 45000 ∙ 150 = 6750000

5º (120,150] 6750000 ∙ 150 = 1012500000

Resulta muy evidente que el modelo funcional que describe este comportamiento es exponencial, lo cual se
corresponde con el período inicial para una población (moscas, en este caso), cuando no hay restricciones.
Esto muestra que los índices de reproducción de la mosca de la fruta son efectivamente asombrosos y por lo
tanto, plagas muy temibles.
Para hallar un modelo funcional podemos trabajar algebraicamente. Si con 𝑁 representamos al número de
moscas de la fruta y 𝑡 al tiempo, en días, hasta el final del período, resulta el siguiente modelo funcional:
1
𝑁(𝑡) = 2 ∙ (150)30𝑡−1
Es de destacar que el exponente de la expresión anterior no resulta evidente para los estudiantes ni es
inmediata su determinación. Es necesario efectuar un ajuste lineal, ya sea algebraicamente o usando
software. También podríamos haber encontrado el modelo exponencial efectuando ajustes con un software,
como puede apreciarse en la Figura 4.

118
8. Demoecología y programas de erradicación de la Mosca del Mediterráneo

Figura 4: Modelo funcional propuesto para la dinámica poblacional de la Ceratitis capitata

Una actividad matemática relevante a realizar con los estudiantes es mostrar que ambos modelos son
equivalentes. Si lo hacemos numéricamente cabe preguntarnos: ¿con cuántos valores podríamos validarlo?,
¿es suficiente con dos valores?, ¿por qué sí o por qué no?
También se puede validar trabajando algebraicamente, aunque tiene algunas dificultades porque el modelo
que propone un software generalmente es aproximado. De todos modos, si queremos ver todas las
posibilidades matemáticas que tiene el problema, podríamos determinar este modelo planteando un sistema
de ecuaciones. Si el modelo exponencial que buscamos es de la forma 𝑁(𝑡) = 𝐾 ∙ 𝑒 𝑐∙𝑡 , tendríamos:
30𝑐
{ 2 = 𝐾 ∙ 𝑒 60𝑐
300 = 𝐾 ∙ 𝑒
La solución del sistema de ecuaciones nos lleva al siguiente modelo exponencial:
1 ln(150)
𝑁(𝑡) = ∙ 𝑒 30 𝑡
75
De esta última expresión, trabajando algebraicamente y usando propiedades de la potenciación resulta:
1 1
𝑁(𝑡) = ∙ 𝑒 ln(150)∙30𝑡
75
1 1
𝑡
𝑁(𝑡) = ∙ (𝑒 ln(150) )30
75
1 1
𝑁(𝑡) = ∙ (150)30𝑡
75
Multiplicando y dividiendo por 150 en el segundo miembro y operando adecuadamente se obtiene:
1 1 150
𝑁(𝑡) = ∙ (150)30𝑡 ∙
75 150
1
𝑁(𝑡) = 2 ∙ (150)30𝑡−1
Con el desarrollo algebraico se logra mostrar la equivalencia entre ambos modelos.
Hasta ahora hemos propuesto un modelo para describir la dinámica poblacional bajo condiciones ideales.
Incorporemos ahora los sistemas de control de plagas. Iniciemos con el control autocida o Técnica del

119
Marcel Pochulu

Insecto Estéril que, de acuerdo a Knipling29 (1955), tiene una eficacia del 90%. En la Tabla 2 describimos la
dinámica poblacional de la Mosca del Mediterráneo, tomando como criterio que el número de insectos se
reduce en un 90% en cada generación (queda 10% de la población). Para la primera generación asumiremos
que queda 1 mosca viva, pues de lo contrario habríamos impedido que se desarrollen las demás.

Tabla 2: Dinámica poblacional de la Moscamed aplicando TIE

Generación Período (días) Cantidad de moscas hembras

1º (0,30] 1

2º (30,60] 1 ∙ 150 ∙ 0.10 = 15

3º (60,90] 15 ∙ 150 ∙ 0.10 = 225

4º (90,120] 225 ∙ 150 ∙ 0.10 = 3375

5º (120,150] 3375 ∙ 150 ∙ 0.10 = 50625

Queda por determinar un modelo de ajuste apropiado. En este caso particular, tendremos en cuenta que se
trata del crecimiento de una población en condiciones naturales, razón por la cual uno de los modelos que
propone la demoecología como más apropiado es el del crecimiento logístico o curva logística, que
corresponde al crecimiento exponencial denso-dependiente (Figura 5).

Figura 5: Modelo funcional para la dinámica poblacional de la Ceratitis capitata aplicando TIE

29 Si bien el texto data de 1955, es el más citado por todos los trabajos actuales y se considera un antecedente relevante en la
aplicación de la Técnica del Insecto Estéril.

120
8. Demoecología y programas de erradicación de la Mosca del Mediterráneo

Al observar los valores aportados por la Tabla 1 y 2, o los gráficos de la Figura 5, se advierte la efectividad de
la Técnica del Insecto Estéril. Puesto que la aplicación de TIE no se realiza sola, sino que se recomienda
acompañarla con control químico (utilización de insecticidas), efectuaremos una propuesta de modelo
incorporando los dos sistemas. Asumimos que la eficiencia de un control químico es del 70%. Esto implica
que la población de moscas de cada generación se reducirá en un 90%, debido a la aplicación de TIE y sobre
ella, en un 70% por aplicar insecticidas. En consecuencia, la cantidad de insectos para cada generación
(redondeando a valores enteros) son los contemplados en la siguiente Tabla.

Tabla 3: Dinámica poblacional de la Moscamed aplicando TIE e insecticida

Generación Período (días) Cantidad de moscas hembras

1º (0, 30] 1

2º (30, 60] 1 ∙ 150 ∙ 0.10 ∙ 0.30 ≅ 5

3º (60, 90] 5 ∙ 150 ∙ 0.10 ∙ 0.30 ≅ 23

4º (90, 120] 23 ∙ 150 ∙ 0.10 ∙ 0.30 ≅ 104

5º (120, 150] 104 ∙ 150 ∙ 0.10 ∙ 0.30 ≅ 468

La representación gráfica de la nube de puntos y ajuste logístico se contempla en la Figura 6.

Figura 6: Modelo funcional para la dinámica poblacional de la Ceratitis capitata aplicando TIE e insecticida
Podríamos continuar aplicando otros métodos de control, como el trampeo, que suele alcanzar una
efectividad del 95% (Carrasco 2015) en interacción con otros sistemas. Esto se conoce con el nombre de
“protección integrada”, que surgió a finales de los años 50 y ha ido evolucionando a lo largo de los años
Pérez Moreno (2000).

121
Marcel Pochulu

Nos quedaría por validar los modelos propuestos contrastándolos con los resultados que aportan las
investigaciones sobre eficacia de los sistemas de protección integrada. No obstante, podemos advertir que si
bien el control de plagas logra reducir notablemente la dinámica poblacional (ocasionada por el ingreso de
una fruta afectada por la Ceratitis capitata a una región protegida), no garantiza la erradicación de este
insecto. Además, su alta tasa de crecimiento la convierte en un potencial riesgo, razón por la cual justifica
ampliamente el control fitosanitario.
Si agregamos el hecho que sería muy poco probable que la fruta no sea consumida y se arroje bajo las
condiciones enunciadas como premisas o hipótesis del problema, podríamos concluir que el impacto que
tendría en el control de la Mosca del Mediterráneo sería extremadamente bajo.
8.4. Perspectivas de trabajo matemático con el problema
El problema propuesto abre las puertas a nuevos abordajes, como por ejemplo:
a) Evaluar para un productor determinado la justificación de realizar medidas de control sobre la plaga. Esto
conlleva, según Pérez Moreno (2000), a establecer el “umbral de acción” que justifica la realización de
medidas de control. En particular, si el control lleva a aplicar solo pesticidas, engloba tres categorías de
niveles económicos de decisión:
- Daño económico (cantidad de lesiones que justifica el coste del tratamiento).
- Nivel económico de daños (mínima densidad de población que puede causar daño económico).
- Umbral económico (nivel a partir del cual deben tomarse medidas para impedir que la población de
plaga alcance el nivel económico de daños).
b) Trabajar con modelos asociados con fecundidad y fertilidad de la Mosca del Mediterráneo o estimación de
desarrollos para diferentes temperaturas. En este aspecto, estudios como los de Muñiz y Gil (1984) aportan
suficientes datos como para trabajar en la clase de matemática.
8.5. Referencias bibliográficas
Calcagno, G. E. (2001). Comportamiento reproductivo en la Mosca del Mediterráneo, Ceratitis capitata
(Díptera: Tephritidae) y su aplicación en programas de Control Genético (tesis doctoral). Universidad
de Buenos Aires. Buenos Aires, Argentina.
Carrasco, L. C. (2015). Evaluación de trampas y atrayentes para el manejo de la mosca del mediterráneo
(Ceratitis capitata Wied) con enfoque agroecológico, en el cultivo de mandarina (Citrus reticulata
Blanco), en la finca El Piñalito, San Marcos, Carazo (tesis de maestría). Universidad Nacional
Agraria. Managua, Nicaragua.
Knipling, E. F. (1955). Possibilities of insect control or eradication through the use of sexually sterile males.
Journal of Economic Entomology, 48, 459-462.
Landa, C. (17 de enero de 2017). La mosca del Mediterráneo. La Tribuna. Disponible en
http://www.latribuna.hn/2017/01/07/la-mosca-del-mediterraneo/
Nicholls, C. I. (2008). Control biológico de insectos: un enfoque agroecológico. Medellín, Colombia:
Universidad de Antioquia.
Muñiz, M. y Gil, A. (1984). Desarrollo y reproducción de Ceratitis capitata (Wiedemann) en condiciones
artificiales - Método para estimar las temperaturas límites de desarrollo. Boletín del Servicios contra
Plagas e Inspección Fitopatológica, Fuera de serie, 2, 133-140.
Pérez Moreno, I. (2000). Fundamentos teóricos del manejo integrado de plagas. Aracnet, 6(27), 127-133.
Ros, J. P. (1988). La mosca mediterránea de la fruta, Ceratitis capitata Wied. Biología y métodos de control.
Madrid, España: Ministerio de Agricultura.
San Andrés, A. (2007). Estrategias para la Mejora del Control Autocida de Ceratitis capitata (Wiedemann)
(Diptera: Tephritidae) en cítricos (tesis doctoral). Universidad Politécnica de Valencia, España.

122
9. Calentamiento global y cambio climático en las ciudades

9
Calentamiento global y cambio climático
en las ciudades

Raquel Abrate, Marcel Pochulu, Ivana Gabetta,


Aylén Salas y Yanela Gastaldi

9.1. Introducción
Actualmente, existe un fuerte consenso científico sobre las alteraciones significativas del clima global como
resultado del aumento de concentraciones de gases invernadero. Estos gases atrapan una porción creciente
de radiación infrarroja terrestre y se espera que aumenten las temperaturas produciendo un calentamiento
global. Si bien existe un acuerdo general sobre estas conclusiones, hay una gran controversia e
incertidumbre con respecto a las magnitudes y las tasas de estos cambios a escalas regionales.
Caballero, Lozano y Ortega (2007) sostienen que es necesario aclarar conceptos que son usados de manera
recurrente en esta temática, los cuales con frecuencia se emplean indistintamente y con poca precisión o
claridad. En particular estos investigadores expresan que:
- Efecto Invernadero se refiere a un mecanismo que ha existido siempre y que provoca que la Tierra
se caliente, siendo un proceso natural y de suma importancia para lograr que nuestro planeta sea un
lugar adecuado para que la vida exista en él.
- Calentamiento Global se refiere a la tendencia de la Tierra a incrementar su temperatura global (de
océanos y atmósfera), lo cual viene haciéndolo durante los últimos 150 años. Este fenómeno, que
tiene consecuencias preocupantes, se relaciona con la contaminación humana producida por la
quema de combustibles fósiles, como el carbón y el petróleo, la tala indiscriminada de bosques, así
como otras fuentes secundarias que realzan el efecto invernadero.
- Cambio Climático engloba al concepto anterior, pero además incluye a todas las variaciones del
clima que han ocurrido durante la historia del planeta y que están asociadas a factores como
cambios en la actividad solar, en la circulación oceánica, en la actividad volcánica o geológica, en la
123
Raquel Abrate, Marcel Pochulu, Ivana Gabetta, Aylen Salas y Yanela Gastaldi

composición de la atmósfera, etc. En consecuencia, el calentamiento global y cambio


climático refieren al aumento observado en más de un siglo de la temperatura del clima de la Tierra
y sus efectos.
Ligado a los conceptos anteriores tenemos el de climatología y meteorología, los que tampoco deben
confundirse. La climatología es la rama de la geografía que se ocupa del estudio del clima y sus variaciones
a lo largo del tiempo cronológico. La meteorología, en tanto, es una ciencia interdisciplinaria que estudia el
estado del tiempo, el medio atmosférico, los fenómenos producidos y las leyes que lo rigen. Mientras la
climatología estudia características climáticas a largo plazo, la meteorología pretende hacer previsiones
inmediatas. De allí que el clima es el conjunto de fenómenos meteorológicos que caracterizan las
condiciones habituales o más probables de un punto determinado de la superficie terrestre y, por lo tanto, lo
acompaña una serie de valores estadísticos.
Múltiples pruebas científicas reportadas por investigadores muestran que el clima se está modificando y
existe cierto consenso sobre el calentamiento global y cambio climático (OMM, 2013). Por ejemplo, son
comunes las gráficas como las de la Figura 1 que reportan la evolución de la temperatura media anual de la
Tierra.

Figura 1: Evolución de la temperatura media global de la Tierra30

El análisis de la gráfica de la Figura 1 muestra que la temperatura global promedio de la Tierra tiene una
tendencia a aumentar, con la existencia de ciclos que marcan algunos aumentos y otros, disminuciones.
Según Isaza y Campos (2007, p. 33):
El calentamiento global es un proceso gradual con graves consecuencias, entre otras:
elevamiento del nivel de los mares, daños en las cosechas, hambre, cambios en los regímenes

30 Fuente de la imagen: https://picazo.eltiempo.es/wp-content/uploads/2017/01/C01zJJ5XAAARfBT.jpg

124
9. Calentamiento global y cambio climático en las ciudades

de lluvias, cambios en las poblaciones de plantas y animales, efectos serios en la salud, y


propagación de enfermedades infecciosas.
También es frecuente encontrar imágenes que ilustran el cambio climático global, como la que ofrece el
Centro Nacional de Datos Climáticos de la NOAA y se aprecia en la Figura 2.

Figura 2: Temperatura global de tierra y océanos durante el 201731


No obstante, siguen existiendo opiniones y análisis que se contraponen y no son claras las distinciones entre
causas y efecto (Isaza y Campos, 2007). En este contexto cabe preguntarse: ¿Es indiscutible que la Tierra
está más caliente en la actualidad? ¿Es irrefutable que el calentamiento global está progresando? ¿Puede
corroborarse que el calentamiento sea a causa de gases de efecto invernadero (GEI)? ¿Podría predecirse la
temperatura de nuestro planeta para un tiempo futuro? ¿Qué implicancias tiene el fenómeno del
calentamiento global en nuestro entorno más próximo?
Sería un arduo trabajo intentar buscar respuestas a estos interrogantes, pero podemos hacer un recorte
particular para la clase de matemática. Aquí comienza nuestro problema y proponemos la siguiente consigna:
Analizar y fundamentar si el comportamiento de las variables tiempo-temperatura del calentamiento global,
de una ciudad en particular y de libre elección, guarda relación con lo que acontece a nivel global.
Entendemos que la respuesta tiene que estar fundamentada a través de un estudio matemático, más que la
búsqueda de esta información en Internet.

9.2. Contextualización de la situación problema


9.2.1. Estudios científicos del clima
Caballero, Lozano y Ortega (2007) sostienen que una pregunta frecuente, que surge cuando se estudia el
fenómeno del calentamiento global y cambio climático, es saber si algo parecido ha ocurrido antes en la
historia de nuestro planeta. De ser así, interesa saber qué fue exactamente lo que pasó y cuáles fueron sus
causas, consecuencias, duración, etc., para tener información sobre lo que se espera en la actualidad. Esto

31 Fuente de la imagen: http://www.climatecentral.org/

125
Raquel Abrate, Marcel Pochulu, Ivana Gabetta, Aylen Salas y Yanela Gastaldi

es algo que muchos científicos han tratado de hacer. Sin embargo, la tarea de conocer el clima del pasado,
sus causas y efectos no es tan sencillo, y requiere de investigaciones muy amplias y frecuentemente
técnicamente complejas.
No tener medidas directas de temperatura y/o precipitaciones antiguas es importante, puesto que el
conocimiento de estas variables ayudaría a responder muchos interrogantes de los climas del pasado
(paleoclimatología). Solo existen registros del clima de la Tierra desde hace unos 150 años, pero hay huellas
o indicadores indirectos (proxy) que le permiten a los científicos extraer conclusiones. Isaza y Campos (2007)
establecen los siguientes indicadores indirectos:
- Núcleo de hielo: Se estudian las burbujas de aire atrapadas en el hielo desde hace miles de años,
las que proporcionan información sobre la temperatura en ese entonces.
- Anillos anuales de los árboles: El ancho de los anillos de los árboles suministra información sobre el
clima durante los años de crecimiento. Por cada año de vida de un árbol se añade un anillo al
diámetro.
- Fósiles: Los animales que vivieron en ciertas áreas y épocas reportan información sobre el clima, en
tanto se compara con los requerimientos alimenticios y de temperaturas que tiene la especie
actualmente.
- Núcleos sedimentarios: Se extraen columnas de sedimento de los lagos y se determina la edad de
las capas. Posteriormente se analiza la presencia de granos de polen en cada una de ellas.
- Registros arqueológicos: Se toma información sobre el modo en que vivieron los humanos en
diferentes épocas y lo que necesitaban para sobrevivir.
Estudios de esta naturaleza permitieron determinar que durante los siglos XV al XIX la Tierra tuvo un clima
un poco más frío que en la actualidad (1 o 2 °C) y es conocida como la Pequeña Edad de Hielo. También se
ha identificado que durante los últimos 400.000 años el clima ha oscilado entre etapas marcadamente frías,
conocidas como glaciales, con temperaturas de unos 8°C más fría que la temperatura media actual, y etapas
similares a la actual, conocidas como interglaciales, en la cual la temperatura del planeta se mantuvo entre 2
y 3°C por arriba de la media. Este ciclo entre glacial e interglacial tiene una duración que va de 22.000 a
98.000 años aproximadamente y se lo denomina Ciclos de Milankovitch, debido a que pequeñas variaciones
en la orientación de la Tierra con respecto al Sol afectan la manera en que se calienta el planeta (Iannelli y
Salvador, 2012).
La perspectiva de diversos investigadores permite suponer que el patrón de glaciaciones de los últimos
400.000 años continuará, pero si el cambio es muy intenso, entonces podemos forzar al planeta hacia un
nuevo estado de equilibrio, con consecuencias que son difíciles de pronosticar. Caballero, Lozano y Ortega
(2007) sostienen que un momento de cambio ambiental brusco podría coincidir con la extinción de alguna
especie, pero después del cambio, poco a poco, nuevas especies evolucionan bajo las nuevas condiciones
de equilibrio y el planeta continúa su marcha inexorable. Solo existiría un recambio de los tipos de
organismos dominantes.
9.2.2. Los modelos climáticos y sus limitaciones
Los modelos climáticos son representaciones matemáticas de las leyes físicas y de los procesos que rigen el
clima, son conocidos desde hace mucho tiempo. No son modelos lineales, se entremezclan las escalas de
tiempo y espacio, y no se resuelven analíticamente. Permiten entender y reproducir los principales procesos
que tienen lugar en el sistema climático, integrado por diferentes componentes y fuertemente acoplados entre
sí. Además, constituyen la herramienta fundamental para los estudios relativos a la futura evolución del clima
y logran ser fidedignos solo en la medida en que sean capaces de proporcionar simulaciones realistas de las
variables climáticas y de los patrones de circulación a gran escala.
Para el trabajo con modelos climáticos es necesario recurrir a software específico y la modelización del clima
en los últimos años logró poner en evidencia la potencia de cálculo. No obstante, los modelos concentran una
experiencia considerable y se requiere saberlos utilizar e interpretar, teniendo presentes las limitaciones y las
incertidumbres que provocan. Le Treut (1997) señala tres limitaciones:

126
9. Calentamiento global y cambio climático en las ciudades

- El sistema climático no es un sistema enteramente previsible. Además, no es posible anticipar con


exactitud lo que acontece en la componente atmosférica en un plazo de 10 días. Edward Lorenz
popularizó esta limitación dándole el nombre de “efecto alas de mariposa”, donde cualquier
perturbación, por mínima que sea, modifica irreversiblemente la historia de la atmósfera.
- Las simplificaciones inevitables introducidas en la construcción de los modelos. Un ejemplo lo
constituye el poder modelizar el movimiento de las nubes.
- La limitación del alcance práctico de los modelos. Solamente representan una parte del sistema
climático completo. A su vez, la mayoría de las veces son modelos físicos que no tienen en cuenta
los componentes biológicos y químicos del sistema.
Pero como señala Le Treut, esto no significa que no se pueda obtener ninguna información sobre la
evolución del clima. Será necesario añadir nuevos componentes a los modelos climáticos, como por ejemplo
el complicado ciclo de carbono o la dinámica de las cortezas de hielo y las retroacciones correspondientes,
con el propósito de aumentar el caos de la modelización climática.
9.3. Aproximaciones matemáticas al problema
Para abordar el problema se requiere acceder a información específica y, en particular, hacer una búsqueda
de datos meteorológicos históricos de una zona determinada. Hemos tomado información de temperaturas
máximas, mínimas y medias anuales de la ciudad de Córdoba, simplemente por escoger una ciudad en
particular de Argentina.
Cabe aclarar que los datos que se encuentran en la red presentan leves diferencias. Optamos por considerar
los datos que publica la página oficial del Gobierno de la Provincia de Córdoba, las que difieren de portales
como TuTiempo.net, Meteored.com.ar o Climate-data.org. A su vez, omitimos colocar los años calendario
que carecen de información.
Tabla 1: Temperatura anual media, máxima y mínima de Córdoba

Temperatura anual Temperatura anual


Año Año
Media Máxima Mínima Media Máxima Mínima
1973 17.5 24.4 9.5 1996 19.2 24.3 12.0
1974 17.5 24.3 9.6 1997 19.9 25.0 12.7
1975 17.5 24.2 9.9 1998 19.6 25.2 11.8
1976 17.4 23.8 10.1 1999 19.5 25.1 11.3
1977 18.2 24.1 11.0 2000 19.7 25.5 11.1
1978 18.1 24.3 10.7 2001 19.5 25.0 12.0
1979 18.1 24.1 11.0 2003 19.9 25.3 12.4
1980 18.3 24.8 10.6 2004 19.5 25.2 11.5
1981 18.2 25.5 10.7 2006 20.2 25.8 12.7
1982 18.0 24.5 10.9 2007 17.8 25.4 11.4
1983 18.3 25.1 10.7 2008 17.9 25.2 11.4
1984 16.7 23.6 10.3 2009 18.6 26.1 11.9
1985 17.9 25.0 11.2 2010 18.0 24.4 12.4
1987 19.0 24.5 11.8 2011 18.6 25.4 12.6
1988 18.3 24.7 11.1 2012 18.3 25.8 11.4
1989 19.5 25.6 12.3 2013 17.7 25.1 11.0
1990 19.7 25.2 11.5 2014 18.2 25.7 11.5
1991 19.1 24.7 10.7 2015 18.7 27.1 11.2
1992 18.8 24.7 10.0 2016 - - -

127
Raquel Abrate, Marcel Pochulu, Ivana Gabetta, Aylen Salas y Yanela Gastaldi

Ahora es necesario realizar una representación gráfica con estos datos. La elección del software no es un
punto menor y forma parte de las competencias digitales que tienen que aprender los estudiantes. Miremos lo
que acontece en la Figura 3 si decidimos representar con GeoGebra la temperatura anual máxima, media y
mínima en función del año calendario.

Figura 3: Temperatura máxima, media y mínima anual de Córdoba, período 1973-2015


La representación gráfica realizada no es apropiada y es muy difícil analizar la información que brinda. Esta
misma representación, si la realizamos en un programa comercial como Microsoft Excel (Figura 4), muestra
con más claridad el comportamiento que tuvo la temperatura el transcurrir el tiempo. Notemos que en esta
última gráfica se ven alteradas las escalas en los ejes, lo cual no es habitual que se aborde en la clase de
matemática, pero que es necesaria para muchos fenómenos.

Figura 4: Temperatura máxima, media y mínima anual de Córdoba, período 1973-2015


¿Esto significa que no es apropiado utilizar un programa como GeoGebra para este problema? La respuesta
es, contundentemente, no. Significa que no escogimos adecuadamente las unidades de medida.
Grafiquemos la misma serie de datos (temperatura máxima, media y mínima anual de Córdoba), pero en

128
9. Calentamiento global y cambio climático en las ciudades

lugar de hacerlo con respecto al año calendario, tomemos los años transcurridos desde que se tienen datos
(1973 en este caso32). La representación gráfica se contempla en la Figura 5.

Figura 5: Temperatura máxima, media y mínima anual de Córdoba, período 1973-2015


Como podemos apreciar, la dificultad está salvada y es claramente visible el comportamiento de la variable
temperatura anual de Córdoba con respecto al tiempo. Si trazamos una línea de tendencia lineal (Figura 6),
nos muestra que las temperaturas estarían en ascenso al pasar los años, aunque no tenemos un buen
coeficiente de determinación. Hay que ser cuidadosos al extrapolar datos para el comportamiento de
temperaturas, pues hemos deducido el problema a mirar solamente datos numéricos, los cuales están
desprotegidos de las demás variables que condicionan su variación.

Figura 6: Tendencias de las temperaturas anuales de Córdoba, período 1973-2015


No perdamos de vista el objetivo que tenemos para este problema: analizar si guarda relación el
comportamiento de las temperaturas de Córdoba con lo que acontece a nivel mundial. Para ello, nuevamente

32 También podríamos haber modificado el eje de las abscisas (valor mínimo y máximo visible) que muestra GeoGebra

129
Raquel Abrate, Marcel Pochulu, Ivana Gabetta, Aylen Salas y Yanela Gastaldi

recurrimos a búsquedas en Internet de datos de temperatura máxima y media anual de la Tierra, para
compararla con lo que aconteció en Córdoba. Los datos se muestran en la siguiente Tabla.
Tabla 1: Temperatura anual máxima y media Mundial y de Córdoba

Temperatura anual Temperatura anual


Año Mundial Córdoba Año Mundial Córdoba
Máxima Media Máxima Media Máxima Media Máxima Media
1973 51.0 34.1 24.4 9.5 1996 55.0 38.0 24.7 10.0
1974 49.4 33.6 24.3 9.6 1997 55.0 38.5 24.3 12.0
1975 50.0 33.4 24.2 9.9 1998 56.0 37.3 25.0 12.7
1976 49.0 34.3 23.8 10.1 1999 51.3 38.4 25.2 11.8
1977 53.0 34.8 24.1 11.0 2000 54.0 39.2 25.1 11.3
1978 50.0 35.4 24.3 10.7 2001 54.8 38.5 25.5 11.1
1979 53.0 38.4 24.1 11.0 2003 51.6 38.8 25.0 12.0
1980 51.0 38.4 24.8 10.6 2004 56.0 38.5 25.3 12.4
1981 49.4 37.7 25.5 10.7 2006 56.0 37.9 25.2 11.5
1982 49.6 36.8 24.5 10.9 2007 54.7 37.9 25.8 12.7
1983 50.9 38.1 25.1 10.7 2008 52.5 37.1 25.4 11.4
1984 49.7 37.7 23.6 10.3 2009 54.1 39.2 25.2 11.4
1985 52.6 38.0 25 11.2 2010 53.0 39.4 26.1 11.9
1987 52.5 38.1 24.5 11.8 2011 52.5 39.9 24.4 12.4
1988 54.0 38.5 24.7 11.1 2012 55.0 39.2 25.4 12.6
1989 54.0 37.8 25.6 12.3 2013 56.0 39.1 25.8 11.4
1990 50.6 38.3 25.2 11.5 2014 52.0 39.6 25.1 11.0
1991 50.3 37.2 24.7 10.7 2015 54.2 39.0 25.7 11.5
1992 55.0 38.0 24.7 10.0 2016 - - - -

La representación gráfica de los valores de esta tabla se contempla en la Figura 7, en la que se incorporó
una línea de tendencia media móvil para los datos, lo cual es usual en representaciones de esta naturaleza.

Figura 7: Temperatura anual máxima y media Mundial y de Córdoba

130
9. Calentamiento global y cambio climático en las ciudades

Es difícil dar respuestas taxativas, pues en algunos períodos parecería coincidir el comportamiento de las
temperaturas en una ciudad particular con lo que aconteció a nivel mundial. No obstante, la representación
gráfica muestra que tanto la temperatura máxima como la media anual están en leve aumento con el
transcurrir de los años.
Si bien hemos representado los datos en forma conjunta, podríamos haber recurrido a las múltiples gráficas
que aparecen en internet sobre la temperatura media global (Figura 8). En este caso, tendríamos que estar
analizando solo el período que va de 1973 a 2015, pues corresponde a los datos que tenemos de la ciudad
tomada como ejemplo.

Figura 8: Temperatura media global en la superficie de la Tierra33

Para finalizar con la resolución del problema podemos observar que resulta difícil realizar una aproximación
acertada sobre la influencia que puede tener el calentamiento global en las temperaturas de la ciudad de
Córdoba. Nos quedaría por corroborar si las apreciaciones realizadas se corresponden con las que expresan
los expertos en el tema y para la ciudad considerada, aunque sí advertimos que guardan relación con los
informes presentados por los organismos dedicados al tema en Argentina. Cabe destacar que en 2015 la
Provincia de Córdoba creó una nueva secretaría (Secretaría de Ambiente y Cambio Climático) para tratar,
casualmente, los temas vinculados al cambio climático. Es la primera provincia que incorpora un área
destinada al calentamiento global, lo cual es una práctica común en otros países.

33 Fuente de la imagen: https://es.wikipedia.org/wiki/Calentamiento_global

131
Raquel Abrate, Marcel Pochulu, Ivana Gabetta, Aylen Salas y Yanela Gastaldi

9.4. Perspectivas de trabajo matemático con el problema


Al retomar nuestros interrogantes iniciales, consideramos habernos apenas acercado a la complejidad que
implica el estudio del clima y al fenómeno del calentamiento global. Hemos analizado datos disponibles para
nuestro hábitat más cercano (el de Córdoba, República Argentina) que nos permitieron extraer algunas
conclusiones acerca de la pregunta: ¿qué implicancias tiene el fenómeno del calentamiento global en nuestro
entorno más próximo?
También, y con respecto al interrogante: ¿podría predecirse la temperatura de nuestro planeta para un
tiempo futuro?, hemos advertido que nos resulta imposible predecir lo que podría ocurrir para una temporada
cercana. ¿Por qué sucede esto? Porque se está trabajando con sistemas dinámicos caóticos, es decir, en
sistemas en donde alguna pequeña modificación en las condiciones iniciales puede hacer que ocurra algo
totalmente caótico, imposible de predecir.
No obstante, quedan muchas preguntas más por explorar, por ejemplo ¿en qué consisten el efecto mariposa
y el efecto baraja? ¿Qué relación tienen con el clima y el calentamiento global? ¿Es cierto que en Argentina
se tendrá una combinación de grandes lluvias (e inundaciones) con sequías prolongadas? ¿Es factible que
se derritan los hielos polares y que el aumento provoque una intrusión marina, anegando grandes zonas, hoy
pobladas? ¿Es posible que, a consecuencia de estos fenómenos, cambien las condiciones económicas y
sanitarias de nuestro país? ¿En cuánto tiempo podrían, eventualmente, producirse estos cambios? La
decisión la tomará el profesor de acuerdo con el contexto de trabajo, intereses de los alumnos, conocimientos
previos, etc. Nuestra intención solo apunta a recuperar la riqueza del trabajo matemático en contextos
extramatemáticos y comprender la realidad que nos involucra. En este sentido, la Organización
Meteorológica Mundial (2013, p. 15) expresa: “Comprender el clima de la Tierra y las tendencias registradas
en la temperatura, las precipitaciones y los fenómenos extremos es de vital importancia para el bienestar
humano y el desarrollo sostenible”, razón por la cual justifica que abordemos estas temáticas con los
estudiantes. A su vez, es fundamental comprender que, si bien el empleo de la matemática resulta necesario
para estos sistemas, los resultados posibles que producen los modelos matemáticos computarizados son
escenarios o simulaciones con un importante componente probabilístico que debe evaluarse en cada caso.
Tras explorar los datos climáticos disponibles en la actualidad, así como las múltiples controversias entre
científicos y el clima pasado y presente de la Tierra, concluimos que es muy dificultoso pronosticar el clima
futuro. De lo investigado, surge entonces la pregunta ¿próxima glaciación o inminente calentamiento?
9.5. Referencias bibliográficas
Caballero, M.; Lozano, S. y Ortega, B. (2007). Efecto invernadero, calentamiento global y cambio climático:
una perspectiva desde las ciencias de la tierra. Revista Digital Universitaria 8(10), 1-12.
Iannelli, L. y Gil, S. (2012). Ondas de Calor Determinación de temperaturas del pasado. Latin-American
Journal of Physics Education, 6(1), 82-88.
Isaza, J. F. y Campos, D. (2007). Cambio climático: Glaciaciones y calentamiento global. Bogotá, Colombia:
Fundación Universidad de Bogotá Jorge Tadeo Lozano.
Le Treut, H. (1997). Clima: por qué los modelos no están equivocados. Mundo Científico, 181, 662-667.
OMM (2013). El estado del clima mundial 2001 – 2010: Un decenio de fenómenos climáticos extremos
Informe resumido. Ginebra, Suiza: Organización Meteorológica Mundial (OMM)

132
10. Parámetros cinéticos para la inactivación de microorganismos en conservas caseras

10
Parámetros cinéticos para la inactivación
de microorganismos en conservas caseras

Raquel Abrate, Marcel Pochulu e Ivana Gabetta


10.1. Introducción
Las conservas son tan antiguas como el ser humano, pues tuvieron y tienen el fin de acumular alimentos en
las épocas de abundancia para contar con ellos durante la escasez. En la actualidad la elaboración de
conservas caseras es una forma de aprovechar la materia prima que abunda en la época de producción,
cubrir las necesidades de autoconsumo o realizarlo como hobby, mientras que en otros casos es una fuente
de ingresos cuando el destino final es la comercialización. Cualquiera sea el motivo, el esfuerzo, el tiempo y
el gasto se recompensa con la satisfacción que proporciona el preparar uno mismo las propias conservas.
No obstante, sabemos que los alimentos son perecederos, por lo que necesitan ciertas condiciones de
tratamiento, conservación y manipulación. Su principal causa de deterioro es el ataque por diferentes tipos de
microorganismos (bacterias, levaduras y mohos fundamentalmente), pues hay muchos agentes que pueden
destruir las peculiaridades sanas de la comida fresca. Los microorganismos estropean los alimentos con
rapidez; las enzimas, que están presentes en todos los alimentos frescos, son sustancias catalizadoras que
favorecen la degradación y los cambios químicos que afectan, en especial, la textura y el sabor. El oxígeno
atmosférico puede reaccionar con componentes de los alimentos, que se pueden volver rancios o cambiar su
color natural. Así, entonces, los alimentos sufren el ataque destructivo de ciertos agentes que los deterioran,
con lo cual se hace necesario utilizar métodos de conservación que eviten este proceso.
Según Iselli (2017, p. 1):
Un alimento en conserva es aquel que ha sido sometido a un adecuado proceso de elaboración,
con la finalidad de prevenir su deterioro microbiano y enzimático, permitiendo conservarse a
través del tiempo, en óptimas condiciones, logrando un producto sano, saludable y seguro.

133
Raquel Abrate, Marcel Pochulu e Ivana Gabetta

Esto nos sugiere que, para el preparado de conservas, deben tomarse los recaudos necesarios y suficientes
para que las mismas perduren y puedan ser consumidas sin riesgos para la salud. De todos modos, no hay
ningún método de conservación que ofrezca protección frente a todos los riesgos posibles durante un periodo
ilimitado de tiempo, y Talamás, Márquez, Quintero, Santana y Camacho (2010, p.1) nos advierten que:
Los alimentos empacados en recipientes –donde se producen condiciones de anaerobiosis
(ausencia de oxígeno)–, son susceptibles al deterioro producido por enzimas y microorganismos
anaerobios, algunos de los cuales (C. botulinum) producen toxinas que arriesgan la salud y en
algunos casos la vida de los consumidores, por lo que es necesario aplicar algún método de
conservación tal como la refrigeración, congelación, tratamiento térmico (pasteurización o
esterilización comercial) o una combinación de estos.
En este sentido, Frazier (1985) considera que la destrucción de los microorganismos por el calor se debe a la
coagulación de sus proteínas y especialmente a la inactivación de las enzimas necesarias para su
metabolismo. Además, el tratamiento térmico necesario para destruir los microorganismos o sus esporas
varía con la clase de organismo, su estado y las condiciones ambientales.
Según el tratamiento térmico empleado se destruirán todas las células vegetativas o solo una parte de ellas,
todas las esporas bacterianas o solo algunas. El término “tratamiento térmico” se refiere a la determinación
de las condiciones de calentamiento (temperatura y tiempo) requeridas para obtener productos micro-
biológicamente seguros de una calidad comestible aceptable. Los expertos expresan que es muy importante
la combinación de las variables temperatura y tiempo, durante el cual el cultivo bacteriano es mantenido a la
temperatura necesaria para lograr el efecto letal deseado (llamado tiempo de retención), debido a que
determina la intensidad del tratamiento térmico necesario.
El tipo de alimento que se someterá a tratamiento térmico está asociado con mircoorganismos que se
caracterizan por tener una resistencia térmica que es necesario conocer para asegurar la esterilidad y
seguridad del producto. Con la aplicación del tratamiento térmico adecuado, las bacterias pueden inactivarse
y lograr mantener un alto valor nutrimental en el producto.
Entonces, ¿cómo podemos medir en la práctica la inactivación de las bacterias que afectan a los alimentos
envasados? Algunos parámetros utilizados, según Iañez (1998) y representados en la Figura 1 son:
- Tiempo de muerte térmica (TMT): es el tiempo mínimo requerido para que mueran todas las
bacterias a una determinada temperatura;
- Tiempo de reducción decimal: es el tiempo requerido para reducir al 10% la densidad de las
bacterias a una determinada temperatura (llamado punto D);
- Punto térmico de muerte (PTM): se define como la temperatura más baja en la que todos los
microorganismos en una suspensión líquida serán eliminados en 10 minutos.
La esterilización es uno de los tratamientos térmicos más utilizados para conservar alimentos empacados en
recipientes sellados y almacenados a temperatura ambiente, y se utiliza ampliamente en la actualidad. La
misma tiene por objetivo lograr la inactivación de la mayoría de los patógenos resistentes al calor. Una
esterilización total, segura 100%, se consigue a través de un autoclave, el cual tiene cierre hermético, permite
trabajar a alta presión y realizar una esterilización con vapor de agua. La alta presión permite que el agua
alcance temperaturas superiores a los 100 grados y, la acción conjunta de la temperatura y el vapor hace que
las proteínas esenciales para la vida y para la reproducción de los microorganismos se coagulen y por lo
tanto, sean destruidos.
Ahora bien, si realizamos conservas caseras se nos presenta un problema esencial, pues un autoclave es un
aparato muy caro y específico, y no es utilizado frecuentemente en los hogares. Pero si no disponemos de un
sistema 100% seguro, ¿cómo se realiza la esterilización de los alimentos envasados? ¿Cómo varía el
número de microorganismos con el tiempo que dura el tratamiento térmico?, y ¿qué influencia tiene la
temperatura a la cual se realiza dicho tratamiento?
La mayoría de los microorganismos patógenos presentan variación en la resistencia a la temperatura, y se
tienen algunos termolábiles (Salmonella, Listeria monocytogene y Escherichia coli O157:H7) que se inactivan
mediante la pasteurización; otros de gran resistencia como el Bacilus cereus, que pueden sobrevivir a la
pasteurización y crecer a bajas temperaturas; o termorresistentes y de mayor preocupación en la industria de
los alimentos como el Clostridium botulinum (Vázquez Aguilar, 2007).

134
10. Parámetros cinéticos para la inactivación de microorganismos en conservas caseras

Figura 1: Relaciones entre porcentaje de supervivencia de un microorganismo, temperatura y tiempo

Cuando analizamos nuevamente la Figura 1, advertimos que el tiempo necesario para inactivar un
microorganismo disminuye conforme aumenta la temperatura con la cual se aplica el tratamiento térmico. De
todos modos, la temperatura y el tiempo afectan el valor nutricional de la conserva, pudiendo perderse
vitaminas y características organolépticas. En este marco comienza nuestro problema y proponemos la
siguiente consigna:
Analizar y fundamentar cómo influye en una conserva casera el comportamiento de las variables tiempo-
temperatura a la que es sometida para el exterminio de microorganismos patógenos. Además, establecer los
principales parámetros cinéticos para la inactivación de los microorganismos en un caso particular.
Entendemos que la respuesta tiene que estar fundamentada a través de métodos analíticos y/o numéricos y
validar las predicciones de los modelos con la información experimental, acoplando cinéticas de variación de
índice de supervivencia de microorganismos a los modelos desarrollados. Asimismo, se espera que se
determinen los tiempos de proceso estrictamente necesarios para obtener inocuidad microbiológica en
alimentos envasados.

10.2. Contextualización de la situación problema


10.2.1. La esterilización en las conservas
Cuando realizamos conservas caseras y no las vamos a consumir en un plazo muy corto de tiempo,
debemos recurrir a técnicas de esterilización, del envase y del producto, para evitar problemas perjudiciales
para nuestra salud. Dependiendo de la temperatura y el tiempo que sometamos una conserva a tratamiento
térmico, lograremos inactivación parcial de los microorganismos (queda una fracción de la población) o
esterilización, que es la inactivación total.
Para la esterilización de las conservas caseras se las suele calentar, generalmente a una temperatura que
destruya los posibles microorganismos presentes y se los coloca en frascos, latas o bolsas herméticas.
Debido al peligro que supone el Clostridium botulinum (causante del botulismo) y otros agentes patógenos, el
único método seguro de envasar la mayoría de los alimentos es bajo condiciones de presión y temperatura
altas, normalmente de unos 116-121 °C.

135
Raquel Abrate, Marcel Pochulu e Ivana Gabetta

El calor y la presión originados durante el proceso expulsan la mayor parte del aire y eliminan el riesgo de
multiplicación de agentes patógenos. Retirar el máximo de aire de dentro de un envase inhibe el crecimiento
de las bacterias, mohos, fermentos, etc., ya que estos y otros microorganismos necesitan del aire para
crecer. Cuando el máximo de aire es extraído y el envase es cerrado, los niveles de oxígeno siguen bajando
mientras suben los de dióxido de carbono. Un ambiente bajo en oxígeno y alto en dióxido de carbono reduce
el crecimiento de los organismos que dañan la conserva, prolongando su vida y fecha de caducidad. No
obstante existen muchos microorganismos denominados anaerobios que no necesitan de oxígeno para
realizar su metabolismo, por esta razón, el envasado al vacío no resulta suficiente para evitar el desarrollo de
estos microorganismos que pueden afectar seriamente la calidad y la seguridad del alimento en cuestión.
Según Flores Ávila (2004), los microorganismos y las enzimas necesitan cierto grado de temperatura para
alterar los alimentos, pero un exceso de calor los destruye. Por eso se emplea la esterilización por calor para
conservar los alimentos, en especial los envasados. Los contenedores llenos y herméticamente cerrados se
someten a elevadas temperaturas durante un tiempo determinado. Una vez esterilizados los envases, y
mientras éstos no se abran y deterioren, los productos en ellos se mantendrán inalterados durante un tiempo
prolongado. Por esta razón es inútil guardar los envases de conservas en un refrigerador antes de abrirlos.
La esterilización puede ser aplicada a cualquier producto que haya sido pelado, trozado o sometido a otro
tratamiento de preparación, provisto de un envase apropiado y sellado en forma hermética de manera tal que
evite la entrada de microorganismos después de la esterilización y también, la entrada de oxígeno. Se asume
que el envase debe presentar condiciones de vacío para asegurar la calidad del producto.
Los microorganismos se destruyen por el calor, pero la temperatura necesaria para destruirlos varía. Muchas
bacterias pueden existir en dos formas, vegetativa o de menor resistencia a las temperaturas, y esporulada o
de mayor resistencia. El estudio de los microorganismos presentes en los productos alimenticios ha llevado a
la selección de ciertos tipos de bacterias como microorganismos indicadores de éxito en el proceso, los
cuales resultan más difíciles de destruir mediante los tratamientos térmicos.
Uno de los microorganismos más usados como indicador para procesos de esterilización comercial es el
Clostridium botulinum, causante de serias intoxicaciones debido a alimentos de baja acidez, o conservados
en ambiente de vacío, dos de las condiciones para la producción de toxinas por el microorganismo.
Los alimentos que deben ser envasados a presión incluyen la mayoría de las verdudas, carnes, mariscos,
productos avícolas y lácteos. Los únicos alimentos que pueden envasarse con seguridad en un baño de agua
hirviendo y a presión normal son los muy ácidos, con un pH inferior a 4.6, como las frutas, verduras,
encurtidos (sumergidos en una solución de sal) y otras comidas a las que se ha añadido un producto ácido,
como el vinagre.
Es importante también destacar que las altas temperaturas que actúan sobre los alimentos procesados
pueden originar cambios deseables, como la muerte de microorganismos, la inactivación de enzimas, el
incremento de la disponibilidad de algunos nutrientes; o indeseables, como la pérdida de factores de calidad
y la degradación de algunos nutrientes.
De esta manera, el tratamiento térmico que se realice para conservar los alimentos debe ser diseñado de tal
forma que permita al alimento procesado, conservar su valor nutricional así como también la calidad del
aspecto del mismo. Básicamente, estos tratamientos deben realizarse en las condiciones adecuadas de
tiempo y temperatura, que permitan lograr una máxima retención de nutrientes, la conservación del color y
del sabor, así como también la estabilidad y la seguridad microbiológica.
10.2.2. Las bacterias en las conservas
Según la Organización Panamericana de la Salud, el Clostridium botulinum es un bacilo Gram positivo,
anaerobio, formador de esporas, que produce una potente neurotoxina. Las esporas son resistentes al calor y
pueden sobrevivir en alimentos incorrectamente procesados, donde germinan (dependiendo de las
condiciones) y se multiplican, deteriorando los alimentos o causando enfermedades transmitidas por
alimentos (OPS, 2004).
Algunas intoxicaciones alimentarias se deben a exotoxinas que son excretadas por las propias bacterias en
crecimiento. Las exotoxinas pueden provocar enfermedades incluso cuando los microbios que las produjeron
han sido eliminados. Los síntomas aparecen típicamente tras 1-6, horas según la cantidad de toxina ingerida.

136
10. Parámetros cinéticos para la inactivación de microorganismos en conservas caseras

Por ejemplo, una enfermedad mortal como el botulismo aparece cuando la bacteria anaeróbica Clostridium
botulinum está presente en alimentos poco ácidos que fueron inadecuadamente envasados. La incidencia de
la enfermedad es baja, pero se considera de cuidado, debido al alto índice de mortalidad si no se diagnostica
y trata adecuadamente.
Cualquier alimento que permita el desarrollo y la producción de toxina y cuyo procesamiento permita la
supervivencia de esporas, y que no se caliente antes del consumo, puede asociarse al botulismo alimentario.
Casi todos los alimentos con pH arriba de 4.6 pueden permitir el desarrollo y la producción de toxina por el
Clostridium botulinum. La toxina botulínica se encontró en una gran variedad de alimentos, como palmito en
conserva, choclo enlatado, pimienta, porotos (frijoles) verdes en conserva, sopas, conservas de remolacha,
espárragos, hongos, aceitunas, espinaca, atún, pollo, hígado de gallina, paté de hígado, carnes frías, jamón,
embutidos, berenjena rellena, langosta y pescado salado y ahumado.
La mayoría de las veces el deterioro evidente del alimento previene a las personas de su consumo. Sin
embargo la ausencia de deterioro evidente no asegura que el alimento se encuentre libre de toxina botulínica.
10.3. Aproximaciones matemáticas al problema
Para iniciar con la resolución del problema será necesario buscar información sobre la temática, lo cual
permitirá abordar el proceso de modelización y establecer las condiciones iniciales.
Vázquez Aguilar (2007), quien recopila numerosos trabajos desarrollados en torno al tratamiento térmico de
alimentos, expresa que se debe tener en cuenta el medio que rodea al microorganismo, especialmente el pH,
la actividad del agua (𝑎𝑤 ) y la concentración y la diversidad de materiales biológicos en el sistema
alimenticio. Detalla los siguientes factores que influyen en el tratamiento térmico de los alimentos:
El medio de cultivo. Cuanto más rico es el medio de crecimiento, más termorresistentes son las células
vegetativas o esporas.
La temperatura de incubación. La termorresistencia aumenta a medida que la temperatura de incubación
aumenta y se aproxima a la temperatura óptima de crecimiento del microorganismo.
La fase de crecimiento o edad. Las esporas jóvenes o inmaduras son menos termorresistentes que las
maduras, razón por la cual se necesita una menor intensidad de tratamiento térmico para la destrucción de
esporas en las primeras etapas de su desarrollo.
Deshidratación. En algunas bacterias resulta más difícil la destrucción, si están deshidratadas. Esto es
debido a que durante el tratamiento térmico, el agua que contienen las esporas eleva la temperatura de éstas
provocando su destrucción.
Composición del sustrato. Implica tener en cuenta los siguientes componentes:
- Humedad. Para una humedad del 30% se consigue una letalidad del 100%, mientras que para
rangos menores no se obtienen buenos resultados. Sin embargo, para rangos de humedad entre 60
y 90% también se consigue alta letalidad. La termorresistencia al calor húmedo depende de la
especie o cepa y del sustrato con el cual se somete a calentamiento. Esto conlleva a que bacterias
que tienen cierta termorresistencia son destruidas con facilidad, mientras que para las termófilas se
requiere de temperaturas de 80 a 90ºC durante varios minutos.
- Concentración de iones de hidrógeno (pH). Las células vegetativas y las esporas son más
termorresistentes en un pH cercano a la neutralidad.
- Cloruro sódico. Bajas concentraciones pueden tener acciones protectoras sobre algunas especies.
- Azúcar. Una baja concentración de glucosa puede determinar el aumento de la termorresistencia. El
aumento de concentración de glucosa da lugar a que se forme en la superficie cierta cantidad de
ácido que provoca una disminución de la termorresistencia.
Tomaremos como hipótesis iniciales que estamos ante las condiciones más desfavorables enunciadas
anteriormente. En este sentido, Vázquez Aguilar (2007) también analiza los estudios realizados con esporas
termorresistentes del Bacillus stearothermophilus, que son la causa de descomposición de los productos

137
Raquel Abrate, Marcel Pochulu e Ivana Gabetta

alimenticios y comúnmente usadas para la validación en los estudios de esterilización. Para estos
microorganismos, la relación temperatura y tiempo de muerte térmica (TMT) se contemplada en la Tabla 1.

Tabla 1: Temperatura de calentamiento y TMT en esporas de las bacterias (Vázquez Aguilar, 2007, p. 3)

Temperatura Tiempo de Muerte Térmica


(ºC) (minutos)

100 1200

105 600

110 190

115 70

120 19

125 7

130 3

135 1

Matemáticamente podemos buscar el modelo funcional que relaciona ambas variables. Para ello podemos
hacer un diagrama de dispersión y ajustes apropiados. No obstante, tratar de encontrar modelos de ajuste
con nuevos recursos (GeoGebra en nuestro caso) tiene un sentido relevante para la actividad matemática
que efectuará el alumno, pues no arroja el mismo tipo de función para las dos posibilidades que tenemos.
Podríamos encontrar un modelo para Temperatura (T) en función de Tiempo de Muerte Térmica (t),
representado en la Figura 2, o varios modelos para Tiempo de Muerte Térmica (t) en función de la
Temperatura (T) como se expone en la Figura 3.

Figura 2: Modelo de ajuste de Temperatura en función de Tiempo de Muerte Térmica

138
10. Parámetros cinéticos para la inactivación de microorganismos en conservas caseras

Figura 3: Modelos de ajuste de Tiempo de Muerte Térmica en función de Temperatura

En nuestro caso, nos quedaremos con el ajuste exponencial propuesto en la Figura 2.


La bibliografía especializada en la temática afirma que, cuando una población de bacterias es tratada con
calor, usualmente éstas mueren a una tasa constante. Por ejemplo, si suponemos que tenemos una
población de 2 millones de microorganismos que han sido tratados, a temperatura constante por un minuto y
90% de la población ha muerto, quedan 200.000 microorganismos. Si la población es tratada durante otro
minuto, 90% del remanente de la población será exterminada, resultando en 20.000 microorganismos y así
podría continuarse.
De todos modos, no es suficiente determinar el TMT para establecer la temperatura del proceso de
inactivación, pues también depende de la concentración inicial de esporas o células vegetativas. Cuanto
mayor sea el número de esporas, mayor va a ser el tratamiento térmico. En la Tabla 2 se muestran los
resultados obtenidos para un tratamiento térmico de 120ºC, en un jugo de maíz con pH 6.0, que contenía
esporas de un microorganismo termófilo procedente de una conserva enlatada que se había alterado.

Tabla 2: Número inicial de esporas y TMT (Vázquez Aguilar, 2007, p. 4)

Concentración inicial de esporas Tiempo de Muerte Térmica


(número/ml) (min a 120ºC)

50000 14

5000 10

500 9

50 8

139
Raquel Abrate, Marcel Pochulu e Ivana Gabetta

Se puede observar que el número de esporas influye notablemente en el tiempo de tratamiento a


temperatura constante (120ºC), lo que nos indica que mientras más esporas haya que eliminar, el tiempo de
tratamiento va a ser mayor.
Si buscamos un modelo de ajuste apelando a los nuevos recursos, tendremos que ensayar varias
posibilidades hasta quedarnos con una que consideremos adecuada. En nuestro caso, escogimos un modelo
exponencial con un coeficiente de determinación razonable, como puede verse en la Figura 4, donde t
representa al TMT y c, a la Cantidad inicial de Esporas.

Figura 4: Modelo de ajuste de Tiempo de Muerte Térmica en función de Concentración inicial de Esporas

A la luz de estos resultados, puede intuirse que a pesar de que un tratamiento térmico sea severo, siempre
habrá oportunidad de supervivencia. Esta probabilidad de supervivencia, que es directamente proporcional a
la población original y parecería imposible lograr una esterilización absoluta, puede ser extremadamente
pequeña y aceptarse para valores inferiores a 1.
Además, mientras más alta sea la temperatura se requerirá menor tiempo para la destrucción bacteriana.
Este principio es cierto para todo tipo de microorganismos y sus esporas. Por otro lado los alimentos no son
igualmente resistentes a estas combinaciones. El factor más importante es el daño a la textura, el color, el
sabor y el valor nutritivo de los alimentos, los cuales tienen qué ver más con el tiempo que con la
temperatura. Mayores temperaturas permiten el uso de tiempos de tratamiento térmicos más cortos para la
destrucción bacteriana, y los tiempos cortos favorecen la retención de la calidad de los alimentos, por lo que
los tratamientos térmicos a altas temperaturas por tiempos cortos se utilizan más que las bajas temperaturas
por tiempos largos en alimentos sensibles al calor.
La resistencia al calor varía entre los diferentes microorganismos y puede ser expresada como el punto
térmico de muerte (PTM). Otro factor que debe ser considerado en una esterilización es el tiempo de muerte
térmica (TMT). Ambos PTM y TMT son guías útiles que indican la severidad del tratamiento requerido para
matar a una población de bacterias dada.
Según Flores Ávila (2004) y Vázquez Aguilar (2007), para determinar el tratamiento térmico de un producto
se debe conocer la velocidad de destrucción de microorganismos, enzimas o parámetro de calidad de
interés, en relación con el tiempo de exposición, o bien, con la temperatura. El parámetro que se degrada o
disminuye (número de microorganismos sobrevivientes, color, textura, etc.) puede obtenerse y evaluarse en
un tratamiento térmico usando otros valores, denominados parámetros cinéticos para la inactivación de
microorganismos y representados con las letras 𝐷, 𝑧 y 𝐹.

140
10. Parámetros cinéticos para la inactivación de microorganismos en conservas caseras

El valor 𝐷 es definido como el tiempo de reducción decimal, equivale al tiempo que se necesita para reducir
en un 90% un parámetro de interés. También se lo suele representar como 𝐷𝑇 , donde el subíndice 𝑇 alude a
una temperatura constante determinada para cierto microorganismo. Por esta razón se dice que 𝐷𝑇
caracteriza la termorresistencia de una especie de microorganismos. Este parámetro cinético está
establecido en alimentos de baja acidez, donde el nivel aceptable de sobrevivencia de esporas de
Clostridium botulinum es 10−12. Equivale a que sobreviva 1 espora en 1012 del proceso térmico.
En referencia a este último valor, Nuffield (1984, p. 75) afirma que:
La práctica comercial normal consiste en dar tratamiento térmico de 12𝐷𝑇 minutos a la
temperatura T. Incluso con la máxima población inicial probable, este tratamiento térmico reduce
la probabilidad de que una lata contenga una espora viva de 200 millones a 1. Puesto que la
mayoría de los alimentos tienen menos de 100 organismos por gramo en el punto de partida, la
eventualidad de intoxicación por C. Botulinum en los alimentos enlatados es aproximadamente
de 1 frente a 10000 millones, lo que significa una oportunidad menor que la de ser alcanzado por
una lata de alimento lanzada desde un avión.
Matemáticamente, podemos calcular este parámetro de la siguiente manera:
𝑡
𝐷𝑇 =
𝑙𝑜𝑔(𝑁0 /𝑁𝑓 )
Donde 𝑁0 es el número de microorganismos al iniciar el tratamiento y 𝑁𝑓 las que sobreviven al tratamiento.
Con 𝑡 representamos el tiempo de aplicación del tratamiento.
El valor de 𝑧, llamado constante de tiempo de muerte térmica, es un parámetro de termorresistencia de
interés. Puede ser definido, según Vázquez Aguilar (2007), como la cantidad de grados centígrados que hay
que aumentar un proceso para que la curva de muerte térmica disminuya un ciclo logarítmico al tiempo de
reducción decimal (ver Figura 1). Es decir, indica en cuántos grados hay que elevar la temperatura para
reducir en 1/10 el tiempo de tratamiento térmico estándar para obtener la misma tasa de destrucción.
Matemáticamente este valor queda determinado por la siguiente ecuación:
𝑇2 − 𝑇1
𝑧=
𝑙𝑜𝑔(𝐷𝑇1 /𝐷𝑇2 )
Donde ∆𝑇 = 𝑇2 − 𝑇1 alude a la variación de temperatura que existe entre dos tratamientos térmicos para el
mismo microorganismo, mientras que 𝐷𝑇1 y 𝐷𝑇2 aluden a los respectivos tiempos de reducción decimal.
Cuando [𝑙𝑜𝑔(𝐷𝑇2 ) − 𝑙𝑜𝑔(𝐷𝑇1 )] cubre un ciclo logarítmico, su valor es 1 y por lo tanto, 𝑧 = 𝑇2 − 𝑇1 .
El valor 𝐹, o también simbolizado como 𝐹𝑇 , es el tiempo del proceso o valor de esterilización a una
temperatura constante que tiene una determinada letalidad ( 𝐿) o velocidad de muerte. También podemos
entender a 𝐹𝑇 como el número de minutos a una temperatura específica requeridos para destruir un número
determinado de organismos con un valor 𝑧 específico.
El concepto de letalidad se refiere a la efectividad del proceso para destruir factores que puedan causar
algún daño al alimento o la salud de los individuos. Para los cálculos del proceso, el calor de eleminación se
define como lo equivalente a un minuto a 121°C contra un organismo con un valor 𝑧 dado. Todos los
tratamientos térmicos igualmente destructivos proporcionan una unidad de letalidad.
Matemáticamente, podemos calcular a 𝐹𝑇 de la siguiente manera:
𝑇−121
𝐹𝑇 = 𝑡 ∙ 10 𝑧

Donde 𝑡 es el tiempo de aplicación del tratamiento, 𝑇 la temperatura en ºC y 𝑧 la constante de tiempo de


muerte térmica.
Estamos en condiciones de tomar un caso particular y analizarlo. Consideremos dos casos que extraemos de
las Tablas 1 y 2. De la Tabla 2 tomaremos que tenemos una concentración inicial de 5.000 esporas por
mililitro, lo cual tendría un TMT de 10 minutos a 120 ºC. De la tabla 1 recuperamos que a 125 ºC el TMT es
de 7 minutos y aceptamos que se tiene la misma cantidad de esporas iniciales. Además, entendemos que el
razonamiento es lógico, en tanto es esperable que para una misma cantidad de esporas se reduce el TMT, si

141
Raquel Abrate, Marcel Pochulu e Ivana Gabetta

aumentamos la temperatura. Para el desarrollo matemático aceptaremos que para el TMT nos quedan 0.1
esporas del microorganismo.
Sabemos que la cinética de muerte de los microorganismos producirá una línea recta en una gráfica que
relaciona el logaritmo del número de células supervivientes, debido a un tratamiento térmico realizado con la
temperatura dada en función del tiempo de ese tratamiento. Con los datos establecidos para el caso
particular que proponemos analizar, la representación gráfica sería la que se contempla en la Figura 5.
Cabe aclarar que podríamos haber tomado una base de datos de alguna experiencia real o reportada por
investigadores sobre la cinética de muerte de un microorganismo (al menos con dos temperaturas
diferentes). Sin embargo, optamos por generar un caso particular por la riqueza de las estrategias
matemáticas que se ponen en juego.

Figura 6: Cinética de muerte de microorganismos a 2 temperaturas diferentes

Las variables que entran en juego para el ajuste del modelo lineal, cuando la escala del eje de las ordenadas
es logarítmica son: log(𝑁𝑇 ), donde 𝑁𝑇 denota a la cantidad de microorganismos (en número/ml) a una
temperatura de 𝑇 ºC y 𝑡 el tiempo medido en minutos. Los modelos de ajuste que emergen resultan ser los
siguientes:
Modelo 1:
log(5000) − log(0.1)
𝑙𝑜𝑔(𝑁120 ) = log(5000) − 𝑡
10
log(50000)
𝑙𝑜𝑔(𝑁120 ) = log(5000) − 𝑡
10
log(50000)
𝑁120 = 10log(5000)− 10
𝑡

142
10. Parámetros cinéticos para la inactivación de microorganismos en conservas caseras

log(50000)
𝑁120 = 10log(5000) 10− 10
𝑡

log(50000)
𝑁120 = 5000 ∙ 10− 10
𝑡

Modelo 2:
log(5000) − log(0.1)
𝑙𝑜𝑔(5) = log(5000) − 𝑡
7
log(50000)
𝑙𝑜𝑔(𝑁125 ) = log(5000) − 𝑡
7
log(50000)
𝑁125 = 10log(5000)− 7
𝑡

log(50000)
𝑁125 = 10log(5000) 10− 7
𝑡

log(50000)
𝑁125 = 5000 ∙ 10− 7
𝑡

Ambos modelos podíamos obtenerlos apelando a nuevos recursos y efectuando los correspondientes
ajustes, como se aprecia en la gráfica de la Figura 7.

Figura 7: Modelos de ajustes para la cinética de muerte de microorganismos a 2 temperaturas diferentes

Analicemos los modelos funcionales propuestos hasta el momento. Los modelos propuestos en la Figura 6
tienen la expresión general:

𝑁(𝑡) = 𝑁0 ∙ 𝑎𝑐∙𝑡 (1)

Donde 𝑁 es el número de microorganismos después de haber transcurrido 𝑡 minutos de tratamiento, 𝑁0 es


el número de microorganismos antes de iniciar el exterminio térmico y tanto 𝑎 como 𝑐 son constantes.
𝑁
En cada unidad de tiempo, el cociente 𝑁0
(llamado, en algunos casos, probabilidad de deterioro) también
resulta ser constante y nos indica el porcentaje de microorganismos sobrevivientes por minuto adicional de
tratamiento. Si 𝑡=1 (minutos), la expresión (1) se transforma en:

143
Raquel Abrate, Marcel Pochulu e Ivana Gabetta

𝑁
= 𝑎𝑐 = 𝐴
𝑁0
Así por ejemplo, para el Modelo 1 (referido a cinética de muerte a 120ºC) resulta 𝐴 ≅ 0.3389, lo que indica
que el número de microorganismos se reduce al 33.89% del valor original. Para el Modelo 2 (referido a
cinética de muerte a 125ºC), resulta 𝐴 ≅ 0.2132, lo que indica que el número de microorganismos se
reduce al 21.32% del valor original. En consecuencia, este cociente nos indica la tasa de supervivencia de los
microorganismos. Por consiguiente, la tasa a la cual mueren los microorganismos es del 66.11% para un
tratamiento térmico a 120ºC y del 78.68%, para un tratamiento a 125ºC.
Ahora bien, en la bibliografía especializada que trata esta temática, suele encontrarse que el modelo que
describe este fenómeno de cinética de muerte de microorganismos es como el que proponemos en la Figura
7, cuya expresión general es:

𝑁(𝑡) = 𝑁0 ∙ 𝑒 𝑘∙𝑡 (2)

Donde 𝑁, 𝑁0 y 𝑡 representan los mismos parámetros descriptos para el modelo (1). La constante 𝑘 suele
denominarse constante cinética de muerte térmica a una determinada temperatura 𝑇, y depende fuertemente
de dicha temperatura. Cabe ahora preguntarnos ¿qué relación hay entre las constante 𝐴 y 𝑘? ¿Qué
representa la constante k34?
Comparando (1) y (2) se observa que: A = ek. Aplicando logaritmo natural en ambos miembros resulta:
ln(𝐴) = 𝑘 ∙ ln(𝑒)
de donde 𝑘 = ln(𝐴). Para nuestro ejemplo, 𝑘 ≅ −1.082 para la cinética de muerte térmica a 120ºC y 𝑘 ≅
−1.545 para la cinética de muerte térmica a 125ºC.
Por otra parte, de (1) se deduce que:
𝑁
𝑙𝑛 ( ) = 𝑡. 𝑐 ∙ 𝑙𝑛(𝑎)
𝑁0
O, lo que es equivalente:
𝑁
𝑙𝑛 ( ) = 𝑡. 𝑘
𝑁0
Por otro lado, también es frecuente expresar a (2) de la siguiente manera:
𝑁
log ( ) = 𝑘𝑡. log(𝑒)
𝑁0
O también:
𝑁 𝑘𝑡
log ( ) =
𝑁0 2,303
Esta expresión suele ser bastante utilizada debido a que, como la cantidad de microorganismos presentes en
general se denota con potencias de base 10, la presencia del logaritmo decimal facilita las cuentas
involucradas. En muchas ocasiones se utilizan otras magnitudes equivalentes a k para caracterizar la
velocidad de muerte de los microorganismos como es el tiempo de reducción decimal 𝐷𝑇 .
Analicemos ahora los parámetros cinéticos para la inactivación de microorganismos en el caso particular que
nos propusimos.

34La constante k se conoce también como constante de velocidad de reacción pues, para quienes tienen conocimientos de Cálculo,
𝑑𝑁
es la tasa relativa de cambio instantánea de N con respecto a t: − = 𝑘𝑁.
𝑑𝑡

144
10. Parámetros cinéticos para la inactivación de microorganismos en conservas caseras

Tiempo de reducción decimal. Para cada uno de los dos casos tenemos:
10
𝐷120 = ≅ 2.13
𝑙𝑜𝑔(5000/0.1)
7
𝐷125 = ≅ 1.49
𝑙𝑜𝑔(5000/0.1)
¿Cómo se interpretan estos valores? Nos están indicando que para un proceso de inactivación de
microorganismos a 120ºC se necesitan 2.13 minutos para reducir en un 90% a la población de esporas. Para
el tratamiento térmico a 125ºC, se requieren solo 1.49 minutos para reducir en un 90% a la población de
esporas.
También podríamos haber encontrado estos valores a través de la gráfica de la cinética de muerte de los
microorganismos, buscando la intersección entre curvas, como se aprecia en la Figura 8.

Figura 8: Tiempo de reducción decimal para la cinética de muerte de los microorganismos

Constante de tiempo de muerte térmica. Como esta constante pretende comparar tratamientos con uno de
referencia, tomaremos el del Clostridium botulinum, donde el ciclo de muerte térmica se produce a 121.1ºC y
se tiene que 𝐷121 = 0.21 minutos. No tiene sentido encontrar la constante de tiempo de muerte térmica
para el tratamiento que se realiza a 125ºC, porque supera a la temperatura de referencia. Entonces, los
valores resultamtes son:
𝑇2 − 𝑇1
𝑧=
𝑙𝑜𝑔(𝐷𝑇1 /𝐷𝑇2 )
121.1 − 120
𝑧=
𝑙𝑜𝑔(2.13/0.21)
𝑧 ≅ 1.09
Este valor nos indicaría el aumento de temperatura requerido para calcular equivalencias a un tratamiento
tomado como referencia (el del Clostridium botulinum en nuestro caso). En particular establece que en el
tratamiento realizado a 120ºC, se requiere aumentar en 1.09 ºC la temperatura para que sea equivalente a 1
minuto de calentamiento a 121ºC.

145
Raquel Abrate, Marcel Pochulu e Ivana Gabetta

También podemos interpretar que se requieren 1.09ºC más de temperatura por una curva de tiempo de
muerte térmica específica (120ºC) para pasar por un ciclo logarítmico (cambio en factor de 10).
Tiempo del proceso o valor de esterilización. Nuevamente lo determinaremos para el tratamiento que
contemplamos a más baja temperatura (120ºC).
𝑇−121.1
𝐹𝑇 = 𝑡 ∙ 10 𝑧

120−121.1
𝐹120 ≅ 10 ∙ 10 1.09

𝐹120 ≅ 0.98
Esto nos indica el tiempo (0.98 minutos) equivalente de tratamiento a 121.1ºC para destruir un número
determinado de microorganismos con un valor 𝑧 específico.
Hay que hacer notar que en la expresión de cálculo interviene la velocidad de muerte o letalidad,
representada por:
𝑇−𝑇 ∗
𝐿 = 10− 𝑧

Esta última expresión resulta ser un modelo apropiado para calcular la temperatura en la que pudo llevarse a
cabo el proceso térmico, pues el valor 𝑧 es característico para los microorganismos conocidos. Algunos
valores pueden contemplarse en la tabla siguiente, adaptada de Vázquez Aguilar (2007, p. 10).

Tabla 3: Resistencia térmica aproximada de algunas esporas bacterianas


Valor D (min) a
Tipo de alimento y microorganismo(s) típico(s) Valor z (ºC)
121ºC 100ºC
Alimentos poco ácidos (𝑝𝐻 > 4.6)
Aerobios termófilos
Bacillus stearothermophilus 4-5 3000 7
Bacillus coagulans 0.1
Anaerobios termófilos
Clostridium thermosaccharolyticum 3-4 12 - 18
Desulfotomaculum nigrificans 2-3
Anaerobios mesófilos
Clostridium sporogenes 0.1 – 1.5 9 - 13
Clostridium botulinum tipos A y B 0.1 – 0.2 50 10
Clostridium perfringens 0.3 - 20 10 - 30
Clostridium caloritolerans 3
Clostridium butyricum 0.1 – 0.5
Acrobios mesófilos
Bacillus licheniformis 13 6
Bacillus licheniformis 13 6
Bacillus macerans 0.1 – 0.5
Bacillus subtilis 11 7
Bacillus cereus 5 10
Bacillus megaterium 1 9
Alimentos poco ácidos (𝑝𝐻 ≤ 4.6)
Aerobios termófilos
Bacillus coagulans 0.01 – 0.1

146
10. Parámetros cinéticos para la inactivación de microorganismos en conservas caseras

Aerobios termófilos
Bacillus polymyxa 0.1 – 0.5
Bacillus marinus 0.1 – 0.5
Clostridium butyricum o Clostridium pasteurianum 0.1 – 0.5

Hasta aquí llegamos con la resolución del problema y quedarían por validar resultados en contextos reales.
En particular ocurre que la situación problema involucró contenidos centrales de otra disciplina (química), y
no suelen ser de conocimiento de los profesores de matemática.
10.4. Perspectivas de trabajo matemático con el problema
Solo hemos abordado algunos interrogantes posibles que se desprenden de una situación un tanto hipotética
(dos tratamientos térmicos sin mucha precisión de cantidades de las conservas). Entre estos interrogantes
buscamos respuestas a: ¿cómo se realiza la esterilización comercial de los alimentos envasados? ¿Cómo
varía el número de microorganismos con el tiempo que dura el tratamiento térmico? ¿Cuál es la tasa en la
que mueren estos microorganismos? ¿Qué parámetros deberían tenerse en cuenta para decidir si un
alimento envasado ha sido tratado adecuadamente para ser apto para el consumo? ¿Cuál deberá ser el nivel
seguro de concentración de microorganismos después de un tratamiento térmico en un alimento? Sin
embargo, quedan muchos más por explorar.
Además, resta por poner en juego todos los modelos matemáticos abordados a partir de datos
experimentales. En Fernández Sevilla (2004, p. 4) pueden encontrarse los siguientes, correspondientes a la
desactivación de cierto microorganismo, identificado como FS 158, a dos temperaturas diferentes.

Tabla 4. Cantidad de esporas sobrevivientes a lo largo de dos tratamientos

Tiempo Cantidad de esporas Cantidad de esporas


(minutos) sobrevivientes/g (T1) sobrevivientes/g (T2)
0 8 ∙ 105 5 ∙ 105
1 7.9 ∙ 105 4.5 ∙ 105
4 5 ∙ 105 6 ∙ 104
7 7 ∙ 104 8 ∙ 103
10 9 ∙ 103 1 ∙ 103
12 2 ∙ 103 80
16 80 8
19 8 2

En este caso particular, los ajustes de curvas de supervivencia no son inmediatos ni se corresponden a
modelos ya establecidos en los nuevos recursos. Podemos hacernos un sinnúmero de preguntas, entre ellas:
¿Se podría establecer qué tipo de espora es o qué tipo de espora bacteriana con seguridad no lo es? ¿Es
posible determinar a qué temperaturas aproximadas se realizaron los procedimientos de inactivación? ¿Qué
parámetros cinéticos se pueden calcular y qué información estarían brindando?
Le corresponde al profesor tomar decisiones de acuerdo con el contexto de trabajo, intereses de los alumnos,
conocimientos previos, etc. Nuestra intención solo apunta a recuperar la riqueza del trabajo matemático en
contextos extramatemáticos.

147
Raquel Abrate, Marcel Pochulu e Ivana Gabetta

10.5. Referencias bibliográficas


Fernández Sevilla, J. (2004). Tecnología de los alimentos. Almería, España: Universidad de Almería.
Frazier, W. (1990). Microbiología de los Alimentos. Zaragoza, España: Acribia.
Flores, E. (2004). Desarrollo de una bebida funcional de maracuyá (passiflora edulis f. flavicarpa) (tesis de
maestría). Universidad de las Américas, Puebla, México.
Iañez, E. (1998). Curso de microbiología general. Granada, España: Universidad de Granada.
Iselli, M. (2017). Buenas Prácticas para la Elaboración de conservas caseras. Boletín del Delta Entrerriano
del INTA, 116, 1-2.
Jun Weng, Z. (2006). Thermal processing of canned foods. En D. W. Sun (Ed.), Thermal food processing:
New Technologies and Quality Issues (pp. 335-362). Boca Ratón, Estados Unidos: CRC Press.
Nuffield F. (1984). Química Avanzada. Ciencia de la Alimentación. Barcelona, España: Reverté.
OPS (2004). Análisis de peligros y puntos críticos de control (HACCP). Panamá: Oganización Panamericana
de la Salud.
Talamás, R.; Márquez, R.; Quintero, A.; Santana, V. y Camacho, A. (2010). Los tratamientos térmicos en
alimentos ácidosempacados. Synthesis, (54), 1-3.
Vázquez Aguilar, M. M. (2007). Fundamentos de la determinación de parámetros cinéticos para
mircroorganismos de interés en tratamiento térmico de alimentos. Temas Selectos de Ingeniería de
Alimentos, 1, 1-14.

148
11. Estimación del poder germinativo de un lote de semillas

11
Estimación del poder germinativo de un
lote de semillas

Stella Figueroa, María Aznar, Laura Distéfano,


Gloria Prieto, Sandra Baccelli y Emilce Moler

11.1. Introducción
En Argentina la producción agropecuaria es una actividad estratégica, razón por la cual se impulsan
tecnologías aplicadas a su optimización y mejoramiento. En particular para la agricultura, adquiere relevancia
el análisis de semillas. Las mismas configuran el insumo con el que se inicia el proceso agrícola, por lo que
es fundamental controlar su calidad para disminuir riesgos y lograr una cosecha exitosa. Así lo señala
Michault (2011, p. 11), quien expresa que “la calidad de la semilla se ve reflejada desde el momento
inmediatamente posterior a la operación de siembra, al definirse la primera componente de rendimiento:
número de plantas/m2”. Asimismo, Michault detalla que la calidad de la semilla está conformada por
componentes primarios (viabilidad, poder germinativo, vigor, sanidad) y componentes secundarios (pureza
genética y físico-botánica, humedad, peso, integridad, aspecto, entre otros). Esta calidad va disminuyendo a
medida que transcurre el tiempo.
De estos componentes depende el éxito o fracaso del nuevo ciclo de producción ya que impactan
directamente sobre la correcta implantación, los cuales son medibles en ensayos de laboratorio. Conociendo
los resultados de estas mediciones se puede, por ejemplo, calcular correctamente los kilogramos de semilla
por hectárea a sembrar para lograr el número de plantas deseado. En ello reside la importancia de este
diagnóstico para los distintos sectores de la industria semillera: criaderos, semilleros, productores,
acopiadores, comerciantes y organismos de control.
Michault especifica que, para la evaluación de la calidad de las semillas, se realizan análisis específicos con
equipamiento adecuado, personal capacitado y metodologías estandarizadas. Estas últimas son claras,

149
Stella Figueroa, María Aznar, Laura Distéfano, Gloria Prieto, Sandra Baccelli y Emilce Moler

precisas y uniformes, de esta forma, los resultados obtenidos por diversos laboratorios son comparables y
fiables.
En Argentina existen más de 150 laboratorios de análisis de semillas, acreditados y controlados por la
dirección de calidad del Instituto Nacional de Semillas (INASE). Son los únicos que pueden emitir certificados
oficiales y confiables acerca de la calidad de un lote. A su vez el INASE está adherido al ISTA (International
Seed Testing Association), lo que garantiza la uniformidad en los métodos tanto de muestreo como de
evaluación de semillas, con lo que además se favorece la transparencia en la comercialización a nivel local,
nacional, regional e internacional.
En este contexto, planteamos como consigna de trabajo la siguiente:
¿Cómo se miden los componentes que determinan la calidad de un lote de semillas? ¿Cómo se analiza la
calidad de todo el lote en, al menos, uno de sus componentes? Si se trabaja con una muestra, ¿qué
argumentos permiten generalizar los resultados obtenidos de la muestra a todo el lote? ¿Se comete algún
error al trabajar con una muestra y extraer conclusiones para el resto del lote? Y si es así, ¿es posible
calcular dicho error?
Entendemos que la respuesta tiene que estar fundamentada a través de métodos analíticos, estadísticos y/o
numéricos y se deben realizar predicciones sobre algún caso particular.
Estas preguntas corresponden a un problema que se puede resolver a través de un modelo matemático que
utiliza herramientas estadísticas. El propósito de este capítulo es plantear un abordaje didáctico de estas
cuestiones en el contexto de una clase de matemática.
11.2. Contextualización de la situación problema
11.2.1. Análisis de semillas
En la sección anterior se nombraron los componentes de la calidad de las semillas. A continuación se
describirán brevemente algunos de ellos.
Viabilidad: Sin semillas vivas no habrá germinación. Así, si se conoce el porcentaje de semillas viables de
un lote de semillas se puede tener idea de la proporción de ellas que están vivas y podrán dar plántulas
normales o con defectos aceptables. Este análisis también es muy útil para algunas especies que presentan
períodos de dormancia o latencia, es decir, a pesar de estar vivas, poseen un período de letargo que les
impide germinar aún en condiciones óptimas.
Germinación o Poder Germinativo (PG): Las pruebas de germinación estándar informan el porcentaje de
semillas que podrán producir plántulas normales en condiciones óptimas del ambiente de siembra. Para una
implantación exitosa se necesitan semillas que germinen rápido y parejo, y así lograr cobertura uniforme del
suelo minimizando el impacto de sus competidores (malezas), depredadores (insectos de suelo, roedores,
pájaros, etc.) y patógenos (damping-off).
Los resultados se expresan en porcentaje de Plántulas Normales, Plántulas Anormales, Semillas duras,
Semillas frescas y Semillas muertas, predicen lo que puede ocurrir en una condición de campo óptima. Por lo
tanto, si se realiza el tratamiento de las semillas ajustado a estas condiciones óptimas, la emergencia va a
ser muy semejante al resultado obtenido en el laboratorio.
Vigor: El análisis de vigor permite estimar la germinación y emergencia en condiciones de campo adversas;
también se utiliza para establecer diferencias de calidad entre lotes de semilla con porcentajes de
germinación similares.
Sanidad: Existen grupos generales de hongos que pueden afectar a la semilla. La sanidad de la semilla es
un atributo de calidad que al conocerlo orienta en la elección del curasemillas adecuado, evita la introducción
de enfermedades en los lotes de producción e indirectamente brinda información acerca del grado de
deterioro de un lote de semillas. El resultado de estas pruebas se expresa como el porcentaje de semillas
infectadas con una determinada especie de hongo.

150
11. Estimación del poder germinativo de un lote de semillas

Pureza varietal: Existen pruebas de laboratorio que permiten identificar variedades, dado que la información
genética que caracteriza a cada cultivar35 es la que determina su comportamiento en el ambiente de
producción.
Pureza física: Es el porcentaje del peso de la semilla de la especie analizada, con respecto al peso total de
la muestra. Un análisis de pureza tiene como objetivo determinar las fracciones porcentuales que componen
un lote de semillas y la identidad de los constituyentes de la muestra: semilla pura, semillas de otras especies
y partículas de materia inerte (paja, glumas, tierra, restos vegetales, animales como gorgojos, piedras, etc.).
Los atributos mencionados son evaluados a través de muestras. Una muestra es una “porción de semillas”
seleccionada aplicando un muestreo que garantice la representatividad del lote (Zimmerman, 2007).
El Instituto Nacional de Semillas (INASE) elaboró un reglamento basado en las normas internacionales
establecidas por el ISTA (International Seed Testing Association). Ese reglamento explica la forma correcta
de extraer una muestra del lote que se desea analizar.
La muestra a enviar al laboratorio está compuesta por muestras primarias tomadas de distintas partes del
lote. La cantidad de muestras primarias a tomar varía si la semilla está fraccionada o a granel. Si la semilla
está fraccionada, depende del número de bolsas y, si está a granel, de las dimensiones del lote que se desee
analizar (Borrajo, 2006).
11.2.2. Cómo anticipar el Poder Germinativo de un lote de semillas
Se ha mencionado anteriormente la necesidad de conocer cuál es la aptitud máxima para germinar de un lote
de semillas y ello solo puede ser determinado con precisión en un laboratorio de análisis. Al respecto,
Craviotto, Arango Perarnau y Gallo (2010), detallan que la prueba que permite conocer en qué grado las
semillas del lote son aptas en sí mismas para germinar y producir plántulas, en condiciones óptimas, se
denomina Prueba de Germinación Estándar. Este ensayo posee un muy buen nivel de armonización dentro y
entre laboratorios, por lo cual se ha convertido en la referencia obligada en el comercio de semillas a nivel
mundial. El número de plántulas normales registrado en el ensayo va a constituir lo que se denomina Poder
Germinativo y se expresa en forma porcentual.
La Resolución 2270/93 de la Secretaría de Agricultura, Ganadería y Pesca de la Nación (SAGyP) fija las
tolerancias para la comercialización de semilla fiscalizada e identificada de las especies de cereales y
oleaginosas más cultivadas en nuestro país. Por ejemplo, para la comercialización de semilla de soja
fiscalizada y de primera multiplicación, se exige un mínimo de Poder Germinativo de 80%. Esto significa
claramente que de 100 semillas hay 80 que han logrado germinar y producir plántulas que pueden ser
categorizadas como normales al final del período del ensayo de laboratorio. Al respecto, Craviotto, Arango
Perarnau y Gallo (2010) aclaran que ese valor mínimo de 80% para soja constituye un “piso legal” para la
calidad y de ninguna manera significa que el lote no pueda, de hecho, poseer una calidad mayor y así
alcanzar valores porcentuales mucho más elevados. Esto último no puede ser conocido por el usuario del
lote, sino únicamente cuando decide realizar un nuevo análisis de control de calidad en un laboratorio
acreditado para ello.
11.3. Aproximaciones matemáticas al problema
Iniciamos con el desarrollo de nuestra situación problema y nos proponemos analizar un caso particular, el
cual enunciamos del siguiente modo:
Un productor agropecuario ha enviado a un laboratorio autorizado por el INASE una muestra de 100 semillas
de soja extraídas de un lote y que, luego de la Prueba de Germinación Estándar, se obtuvieron 90 plántulas
normales. Analizar y fundamentar la información que estaría brindando el Poder Germinativo (PG) de todo el
lote para un campo de siembra en condiciones óptimas. ¿Se pueden extraer conclusiones sobre la calidad de
las semillas del lote a partir de la información sobre el PG obtenido en una única muestra? ¿Por qué sí o por
qué no?

35 Término empleado en agronomía para designar a aquellas poblaciones de plantas cultivadas que son genéticamente homogéneas
y comparten características de relevancia agrícola que permiten distinguir claramente a la población de las demás poblaciones de la
especie y traspasan estas características de generación en generación. Obtenido del Diccionario del sitio web de InfoAgro.com

151
Stella Figueroa, María Aznar, Laura Distéfano, Gloria Prieto, Sandra Baccelli y Emilce Moler

El análisis estadístico y, en particular, las nociones intuitivas sobre inferencia estadística nos ayudarán a
comprender el comportamiento de los datos obtenidos en una muestra y contar con esa evidencia para
extraer conclusiones acerca del comportamiento del lote.
Llegado este punto, y considerando el resultado de la Prueba de Germinación Estándar de 90 plántulas
normales en una muestra aleatoria de 100 semillas, es decir, un 90 %, nos planteamos las siguientes
preguntas:
1. ¿Se puede afirmar que el porcentaje hallado en la experimentación es el porcentaje del poder
germinativo real del lote de semillas? Es decir, ese porcentaje ¿es una estimación del PG real de
ese lote?
2. Una vez que obtenemos una estimación del PG real del lote de semillas (parámetro
poblacional), ¿podemos averiguar cuánto nos estamos equivocando con esa estimación?
Para dar respuesta a estas preguntas es necesaria la comprensión del significado de una distribución
muestral y del significado de un estimador, para que posteriormente pueda estimarse el porcentaje real del
poder germinativo del lote. Para propiciar esta comprensión, comenzaremos introduciendo el uso de un
recurso didáctico como es la simulación. En ella, a través de un applet, los estudiantes comprobarán la
relación entre una variable estadística y su variable aleatoria asociada, cuando el número de pruebas es lo
suficientemente grande.
11.3.1. La simulación como instrumento de modelización estadística
La simulación es un modelo de la realidad representada, porque simplifica la realidad y considera una
abstracción sobre ella. En la simulación se ponen en correspondencia dos experimentos aleatorios
diferentes, de tal manera que a cada suceso elemental del primer experimento le corresponda un suceso
elemental del segundo y solo uno, y las probabilidades asociadas a estos sucesos que se corresponden sean
iguales. Girard (1997, citado en Batanero 2003, p.45) indica que al simular experimentos se está
modelizando, porque no solo se debe simplificar la realidad, sino que deben fijarse ciertos aspectos de la
misma que deben simularse especificando las hipótesis matemáticas sobre el fenómeno estudiado. De esta
forma, se puede restringir el experimento en un tiempo y espacio concreto, observar los resultados del
segundo experimento y utilizarlos para obtener información del primero.
En nuestro caso, pondremos en correspondencia el experimento aleatorio real de aplicar la Prueba de
Germinación Estándar a una muestra de 𝑛 semillas, con el experimento aleatorio simulado de obtener una
muestra de tamaño 𝑛.
El resultado de un experimento es un suceso. En el experimento de aplicar la Prueba de Germinación a una
muestra de semillas, el resultado de ese experimento está dado por la germinación o la no germinación de
cada semilla de la muestra.
En el experimento simulado, el suceso está dado por la aparición de unos y ceros para cada elemento de la
muestra. Se establece una correspondencia entre los sucesos elementales o resultados posibles del
experimento para cada semilla con cada elemento de la muestra simulada. Para ello, se asigna un 1, si la
semilla germinó y un 0 si no germinó, como puede observarse en el esquema, con las probabilidades
asociadas respectivas.

Correspondencia
Resultados posibles para Probabilidad asociada a
entre los resultados
Experimento aleatorio cada elemento de la cada suceso de la
posibles de cada
muestra población
experimento
Germinó una plántula normal
Real: Aplica la prueba de
Probabilidad de germinar =
germinación y observa No germinó una plántula
Probabilidad de obtener 1: p
cada semilla normal. Germinó : 1
Probabilidad de no germinar
No germinó : 0
Simulado: toma una 1 = probabilidad de no obtener
muestra de tamaño 1: 1- p
0
prefijado.

152
11. Estimación del poder germinativo de un lote de semillas

La población real es el lote de semillas a analizar. En ella, la proporción p del PG que tienen todas las
semillas de la misma especie del lote es un parámetro desconocido. Estimar este valor es responder a la
pregunta 1 planteada: ¿Se puede afirmar que el porcentaje hallado en la experimentación es el porcentaje
del poder germinativo real del lote de semillas? Es decir, ese porcentaje ¿es una estimación del PG real de
este lote de semillas?
En la página web de la Universidad de Córdoba (España) se encuentra el applet que utilizaremos para la
simulación de las muestras. Comenzaremos partiendo de una población simulada binaria (de unos y ceros)
que tiene un determinado tamaño y una proporción poblacional p conocida, llamada parámetro poblacional.
Por ejemplo, podemos pensar que el valor 𝑝 = 0.90.
De esta población simulada, generamos una muestra aleatoria de tamaño 100, obteniendo la proporción 𝑝̂ de
“unos” que equivale a la proporción de semillas germinadas en plántulas normales.
En la Figura 1 se muestra la distribución de la población de la que se extraen las muestras aleatorias
halladas y también se presenta el resultado de una muestra (son 100 elementos, aunque la imagen no
alcanza a mostrarlos a todos).

Figura 1: Parte 1 de la simulación para la muestra número 1 y la distribución de la población de la que fue extraída

En la Figura 2 se muestra la parte superior de la misma simulación, haciendo click en el punto rojo de la
representación gráfica de la proporción. Además del valor 𝑝̂ , simultáneamente, aparece un valor 𝑧 con una
fórmula que, junto con su gráfica, analizaremos después.
Al efectuar este procedimiento 100 veces, generamos 100 muestras aleatorias. Para cada muestra generada,
se pueden registrar en una planilla de cálculo, como puede observarse en la Figura 3, la proporción de 1
(unos) que asociamos a semillas germinadas. El conjunto de ellas es la distribución empírica de la variable
proporción muestral 𝑝̂ . No tenemos que confundir la proporción 𝑝̂ que es una variable aleatoria, con el valor
que toma en cada muestra.

153
Stella Figueroa, María Aznar, Laura Distéfano, Gloria Prieto, Sandra Baccelli y Emilce Moler

Figura 2: Parte 1 de la simulación para la muestra número 1 y la distribución de la población de la que fue extraída

Figura 3: Fragmento del registro de las proporciones obtenidas en cada muestra simulada.

Con los distintos valores de 𝑝̂ encontrados, agrupamos por intervalos y construimos una tabla de frecuencias
relativas. Luego graficamos esta distribución de proporciones empíricas y calculamos medidas descriptivas
de las proporciones. Los datos obtenidos se registran en la Tabla 1 y en la Tabla 2, respectivamente.

Tabla 1: Distribución de las proporciones muestrales

Proporciones Frecuencia Frecuencias


en Intervalos Absoluta Relativas

[0.81; 0.83) 2 0.02


[ 0.83; 0.85) 4 0.04

154
11. Estimación del poder germinativo de un lote de semillas

[0.85; 0.87) 9 0.06


[0.87; 0.89) 17 0.17
[0.89; 0.91) 30 0.30
[0.91; 0.93) 17 0.17
[0.93; 0.95) 16 0.16
[0.95; 0.97] 5 0.05
100

Tabla 2: Medidas descriptivas de las proporciones muestrales obtenidas

Medidas descriptivas

Máximo 0.97

Mínimo 0.81

Rango 0.16

Promedio 0.9018

Mediana 0.902

Modo 0.90

Desviación estándar 0.03

Coeficiente de variabilidad 0.033

A continuación, se presenta en la Figura 3 la representación gráfica de las proporciones obtenidas.

Figura 3: Distribución de la proporción muestral

155
Stella Figueroa, María Aznar, Laura Distéfano, Gloria Prieto, Sandra Baccelli y Emilce Moler

Al observar la gráfica obtenida, identificamos qué tipo de distribución tiene la variable proporción muestral.
Podemos ver que su comportamiento es el de una distribución simétrica; ya que los valores del promedio o
media aritmética, mediana y modo son iguales (la diferencia en la tercera cifra decimal de las medidas
pueden despreciarse, como se puede ver en la Tabla 2).
En cuanto a la variabilidad de la distribución, un coeficiente de variación porcentual del 3.3% permite afirmar,
junto a su forma simétrica, que la media describe la proporción muestral y puede resumir los datos obtenidos.
Comparemos a continuación, la Figura 3 con el gráfico que aparece en la simulación de la Figura 4, donde se
tomaron 1000 muestras y se representaron los resultados de todas ellas con rectángulos.

Figura 4: Distribución de la proporción muestral y su relación con la distribución normal

Observamos que los dos gráficos tienen un comportamiento similar, los dos son simétricos y los valores con
mayores frecuencias se encuentran en el centro de la distribución. Además, en la Figura 4 , al haber tomado
1000 muestras en lugar de 100, los datos se “ajustan mejor” a la curva que aparece en la gráfica, llamada
curva de distribución normal. Esto es así por la ley de los grandes números que afirma que cuando el número
de pruebas es lo suficientemente grande, las frecuencias relativas de la variable estadística convergen a la
probabilidad teórica de la variable aleatoria asociada. En nuestro caso, la variable aleatoria asociada es la
variable aleatoria normal.
Por esa razón el valor de 𝑝̂ obtenido en cada una de las muestras tiene un equivalente valor de 𝑧 (estadístico
𝑧 en la simulación) y una ubicación en la curva normal estandarizada, es decir, en la curva normal donde el
valor esperado es cero y la dispersión es 1.
Otra característica importante de destacar en esta simulación surge de la comparación del parámetro
poblacional del que se extrajeron las muestras con el promedio de proporciones muestrales obtenido. En
nuestro ejemplo, recordemos que tomamos como parámetro 𝑝 = 0.90 y el promedio de las proporciones
muestrales nos dio 0.9018. Justificaremos estos resultados empíricos con la teoría estadística utilizada en el
apartado siguiente.
11.3.2. Teoría estadística utilizada para la resolución del problema
En el problema presentado subyacen las siguientes variables aleatorias que contribuyen en la modelización
del mismo: 1) de Bernoulli, 2) Binomial, 3) Proporción muestral 4) Normal. Repasamos sucintamente cada
una de ellas.

156
11. Estimación del poder germinativo de un lote de semillas

1) De Bernoulli. Estas variables 𝑥𝑖 (donde cada valor de “𝑖” corresponde a una semilla) solo pueden tomar
los valores 1(éxito) y 0 (fracaso), con probabilidad de éxito p y de fracaso 1 − 𝑝 respectivamente. En nuestro
ejemplo, interpretamos a 𝑝 = 0.90 como el resultado de la Prueba de Germinación Estándar.
Su valor esperado es
𝐸 (𝑥𝑖 ) = 1 . 𝑝 + 0. (1 − 𝑝) = 𝑝
y su varianza es
𝑉(𝑥𝑖 ) = 𝐸(𝑥𝑖2 )– [𝐸 (𝑥𝑖 )]2 = 12 . 𝑝 + 02 . (1 − 𝑝) – 𝑝2 = 𝑝 − 𝑝2
Entonces
𝑉(𝑥𝑖 ) = 𝑝(1 − 𝑝)
2) Binomial, de parámetros 𝑛 y 𝑝. Esta variable 𝑥 se define como la suma de 𝑛 variables aleatorias
independientes de Bernoulli y cuenta el número de éxitos obtenidos en n pruebas repetidas independientes.
En nuestro caso, representa el número de semillas germinadas. El parámetro 𝑝 es la probabilidad de éxito en
cada prueba y es un valor constante, en nuestro caso, 𝑝 = 0.90.
Su valor esperado es
𝑛 𝑛

𝐸(𝑥) = 𝐸 (∑ 𝑥𝑖 ) = ∑ 𝐸(𝑥𝑖 ) = 𝑛𝑝
𝑖=1 𝑖=1

Es la cantidad de semillas de la muestra que se espera que germinen.


Este valor es equivalente al promedio aritmético en estadística descriptiva, ya que cuando el número de
pruebas es grande, el promedio se aproxima al valor esperado de la variable.
Su varianza es
𝑛 𝑛

𝑉(𝑥) = 𝑉 (∑ 𝑥𝑖 ) = ∑ 𝑉(𝑥𝑖 ) = 𝑛𝑝 ∙ (1 − 𝑝)
𝑖=1 𝑖=1

por ser las variables 𝑥𝑖 independientes. Es una medida de variabilidad que mide, en promedio, el grado de
alejamiento de los valores que toma la variable respecto de su valor esperado.
El cálculo de la probabilidad exacta de que 𝑥 tome un valor 𝑘 en las n pruebas repetidas independientes está
dado por:
𝑛
𝑃(𝑥 = 𝑘) = ( ) 𝑝𝑘 (1 − 𝑝)𝑛−𝑘
𝑘
donde 𝑥 es el número de semillas de la muestra con capacidad de germinar, 𝑘 es el número de semillas
germinadas, 𝑝 = 0.90 es el valor obtenido en la Prueba de la Germinación Estándar y 𝑛 es el tamaño de la
muestra.
𝑥
3) Proporción muestral, 𝑝̂ = 𝑛, donde 𝑥 es una variable binomial y 𝑛, el tamaño de la muestra. Su valor
esperado es
𝑥 1 𝑛∙𝑝
𝐸(𝑝̂ ) = 𝐸 ( ) = 𝐸(𝑥) = =𝑝
𝑛 𝑛 𝑛
Representa la proporción esperada de semillas germinadas en la muestra. Este concepto teórico nos dice
que el valor esperado de la proporción muestral es el parámetro poblacional 𝑝. Significa que la variable
𝑥
aleatoria 𝑝̂ = es un estimador insesgado (sin sesgo o error) del parámetro poblacional 𝑝. Si la variable
𝑛
𝑥
aleatoria 𝑝̂ = 𝑛 es un estimador del parámetro poblacional 𝑝, cada valor que toma dicha variable es una
estimación puntual de 𝑝.

157
Stella Figueroa, María Aznar, Laura Distéfano, Gloria Prieto, Sandra Baccelli y Emilce Moler

Entonces, en la distribución muestral que simulamos, cada proporción 𝑝̂ obtenida en la muestra de semillas
es una estimación puntual del parámetro poblacional 𝑝 del poder germinativo del lote ¿Cuál de todas las
estimaciones de 𝑝 es la mejor?
Desde el punto de vista teórico, que el valor esperado de la proporción muestral sea el parámetro poblacional
p, se corresponde con el resultado obtenido en la simulación, donde el promedio de las proporciones coincide
con el parámetro p de la población simulada.
La varianza de la proporción muestral es
𝑥 1 𝑛 ∙ 𝑝 ∙ (1 − 𝑝) 𝑝 ∙ (1 − 𝑝)
𝑉(𝑝̂ ) = 𝑉 ( ) = 2 𝑉(𝑥) = =
𝑛 𝑛 𝑛2 𝑛
Si la calculamos utilizando el parámetro poblacional p conocido, obtenemos
𝑝 ∙ (1 − 𝑝) 0.90 ∙ 0.10
𝑉(𝑝̂ ) = = = 0.0009
𝑛 100
Por consiguiente, su desviación estándar, conocida también como el error estándar, es

𝑝 ∙ (1 − 𝑝)
√𝑉(𝑝̂ ) = √ = 0.03
𝑛
Si observamos la Tabla 2, el resultado de desviación estándar de las proporciones muestrales nos dio el
mismo valor.
4) Normal. La curva de distribución normal de una variable aleatoria continua es un modelo de distribución
de probabilidades muy utilizado en inferencia estadística, porque su comportamiento se encuentra en el
estudio de una importante cantidad de fenómenos. Entre ellos, pueden mencionarse:
• Caracteres morfológicos de individuos (personas, animales, plantas, etc.) de una especie (tallas,
pesos, diámetros, perímetros, etc.).
• Caracteres sociológicos, por ejemplo: consumo de cierto producto por un mismo grupo de
individuos, puntuaciones de un examen.
• Caracteres fisiológicos, por ejemplo: efecto de una misma dosis de un fármaco.
• Errores cometidos al medir ciertas magnitudes.
Esta curva proporciona la base de la inferencia estadística por su relación con el Teorema Central del Límite
y se usa para aproximar distribuciones de variables discretas.
Todas las variables que se distribuyen normalmente pueden transformarse en la variable estandarizada z
utilizando la fórmula de estandarización:
𝑉𝑎𝑜𝑟 𝑑𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 − 𝑉𝑎𝑙𝑜𝑟 𝑒𝑠𝑝𝑒𝑟𝑎𝑑𝑜 𝑑𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒
𝑧=
𝐷𝑒𝑠𝑣𝑖𝑎𝑐𝑖ó𝑛 𝑒𝑠𝑡á𝑛𝑑𝑎𝑟 𝑑𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒
En este caso, resulta
𝑝̂ − 𝑝
𝑧=
√𝑝 ∙ (1 − 𝑝)
𝑛
Donde p es el valor esperado de la variable y parámetro de la población simulada. En el ejemplo, 𝑝 = 0.9 y
𝑛 = 100 es el tamaño muestral.
Esta fórmula es la que fue observada en la Figura 2 y ahora podemos justificar:
• Con la simulación, se comprobó que la proporción muestral se distribuye normalmente.

158
11. Estimación del poder germinativo de un lote de semillas

• Con las herramientas teóricas que proporciona el Teorema Central del Límite36, se pudo validar que
la proporción muestral tiene distribución normal.
Esto último puede afirmarse porque
𝑥 ∑𝑛𝑖=1 𝑥𝑖
𝑝̂ = =
𝑛 𝑛
es una suma de variables aleatorias de Bernoulli y, como tal, se distribuye normalmente.
Observamos que si el valor esperado es cero y la dispersión es uno, la fórmula de estandarización se
convierte en 𝑧 = 𝑝̂ y como todas las probabilidades asociadas a cada valor 𝑧 están calculadas, usamos 𝑧 en
lugar de 𝑝̂ . Es por esta razón que en cada simulación aparece el estadístico 𝑧 directamente. Pero pensamos
que es fundamental, para la interpretación de los significados asociados a una distribución muestral, que sea
el alumno quien descubra la distribución de a través del registro de los valores que toma en cada muestra y
del análisis de los datos obtenidos.
Consideramos que mostrar la estandarización de los valores de la variable desde el inicio de la simulación
anticipa el resultado impidiendo al alumno el descubrimiento de la forma de la distribución.
Aclarado este punto, y resumiendo lo analizado y calculado, estamos en condiciones de afirmar que la
proporción muestral se distribuye normalmente, su valor esperado coincide con la proporción poblacional p, y
𝑝∙(1−𝑝)
su dispersión también depende de 𝑝 y es √𝑉(𝑝̂ ) = √ .
𝑛

11.3.2. La resolución del problema planteado


En la introducción nos preguntábamos: ¿se puede afirmar que el porcentaje hallado en la experimentación es
el porcentaje del poder germinativo real del lote de semillas de esta especie? Es decir, ese porcentaje ¿es
una estimación del PG real del lote de semillas de esa especie?
En el mundo real, se toma una sola muestra representativa del lote, que luego de la Prueba de Germinación
Estándar, dio una proporción de PG de 0.90.
¿Por qué podemos “confiar” en el resultado de una única muestra?
• Porque vimos en la simulación que, de todas las muestras tomadas de la misma población, la
distribución de proporciones muestrales se centró en la media, que resultó igual a la mediana y al
modo, que es el valor más frecuente de obtener en una muestra aleatoria. Por lo tanto, al trabajar
con una sola muestra, se espera obtener una proporción que se encuentre próxima a estos valores
calculados.
• Por otro lado, desde el punto de vista teórico, vimos que el valor esperado (0.90) de la variable
proporción muestral es la proporción poblacional o parámetro poblacional 𝑝.
Luego 𝑝̂ = 0.90 es una estimación de la proporción real del verdadero PG del lote. Es una estimación
puntual, porque es un solo valor.
Como sabemos que la proporción muestral se distribuye normalmente, su valor esperado coincide con la
proporción poblacional p que desconocemos, pero su dispersión o desvío estándar, que es

𝑝 ∙ (1 − 𝑝)
√𝑉(𝑝̂ ) = √
𝑛
depende de 𝑝. Como estamos en la situación real, debemos estimar no solo a 𝑝 sino también a su
𝑝̂∙(1−𝑝̂)
dispersión. Utilizamos la estimación √ 𝑛
para la dispersión.

36 Enunciado del Teorema: Si tenemos un grupo numeroso de variables independientes y todas ellas siguen el mismo modelo de
distribución, la suma de ellas se distribuye según una distribución normal.

159
Stella Figueroa, María Aznar, Laura Distéfano, Gloria Prieto, Sandra Baccelli y Emilce Moler

Existe otro tipo de estimación que es la estimación por intervalo. Da mayor información que la obtenida con
un solo valor, porque a la estimación puntual se le suma y resta el radio de un intervalo donde esperamos
que se encuentre el verdadero PG del lote. Además, en este tipo de estimación, se puede elegir la
confiabilidad de que el parámetro PG se encuentre en ese intervalo.
Encontremos entonces ese intervalo, llamado intervalo de confianza, para la proporción poblacional 𝑝. Este
intervalo se encuentra cuando el tamaño de la muestra es grande, porque la aproximación a la curva normal
se produce en ese caso.
Al no trabajar con toda la población, es decir, con todo el lote, consideramos un riesgo 𝛼 de que en la
muestra elegida no se encuentre el verdadero PG.
Como la variable
𝑝̂ − 𝑝
𝑧=
√𝑝̂ ∙ (1 − 𝑝̂ )
𝑛
tiene una distribución normal estandarizada, podemos plantear que la probabilidad de que la variable z se
encuentre entre los extremos indicados es 1 − 𝛼. Gráficamente tenemos:

Figura 5: Gráfica de probabilidad de que la variable z se encuentre entre los extremos indicados es 1 − 𝛼

Simbólicamente
𝑃(−𝑧𝛼/2 ≤ 𝑍 ≤ 𝑧𝛼/2 ) ≅ 1 − 𝛼
Reemplazando 𝑧

𝑝̂ − 𝑝
𝑃 −𝑧𝛼/2 ≤ ≤ 𝑧𝛼/2 ≅1−𝛼
√𝑝̂ ∙ (1 − 𝑝̂ )
( 𝑛 )
Despejando 𝑝

160
11. Estimación del poder germinativo de un lote de semillas

𝑝̂ ∙ (1 − 𝑝̂ ) 𝑝̂ ∙ (1 − 𝑝̂ )
𝑃 (𝑝̂ −𝑧𝛼/2 √ ≤ 𝑝 ≤ 𝑝̂ + 𝑧𝛼/2 √ )≅1−𝛼
𝑛 𝑛

Hemos arribado a la expresión de los extremos del intervalo, en donde se espera que caiga el verdadero
parámetro poblacional, con una probabilidad de 1 − 𝛼.
Para encontrar los extremos del intervalo, a la estimación puntual 𝑝̂ le sumamos y restamos un radio 𝛿,
también llamado precisión de la estimación o máximo error que se puede tomar en la estimación

𝑝̂ ∙ (1 − 𝑝̂ ) 𝑝̂ ∙ (1 − 𝑝̂ )
𝑝̂ −𝑧𝛼/2 √ ≤ 𝑝 ≤ 𝑝̂ + 𝑧𝛼/2 √
𝑛 𝑛
o lo que es equivalente:
𝑝̂ − 𝛿 ≤ 𝑝 ≤ 𝑝̂ + 𝛿
donde

𝑝̂ ∙ (1 − 𝑝̂ )
𝛿 = |𝑧𝛼/2 |√
𝑛
En nuestro caso,
0.90−𝑧𝛼/2 ∙ 0.03 ≤ 𝑝 ≤ 0.90 + 𝑧𝛼 ∙ 0.03
2

Si elegimos un riesgo de la estimación 𝛼 = 0.05 la confiabilidad es del 0.95, entonces |𝑧𝛼/2 | = 1.96
resulta:
0.90 − 0.0588 ≤ 𝑝 ≤ 0.90 + 0.0588
El intervalo obtenido es 0.8412 ≤ 𝑝 ≤ 0.95880 y es una estimación del intervalo del PG real.
Esto significa que el PG real del lote está comprendido entre el 84.12% y el 95.88 % con una confiabilidad del
95%, es decir que si se toman 100 muestras como ésta, se espera que en 95 de ellas se encuentre el PG
real del lote. El valor 𝑝̂ = 0.90 es una estimación puntual y la estimación por intervalo es la respuesta a la
pregunta 1.
Para la respuesta a la pregunta 2, recordaremos su enunciado:
Una vez que obtenemos una estimación del parámetro poblacional, ¿podemos averiguar cuánto nos estamos
equivocando con esa estimación? Para eso nos preguntamos: ¿cuál es la precisión de la estimación del
intervalo de confianza obtenido?
El error de muestreo |𝑝̂ − 𝑝| no se conoce, porque el parámetro poblacional es desconocido. Pero sí
podemos obtener una cota de ese error: 𝛿 es la precisión de la estimación o máximo error cometido en la
estimación |𝑝̂ − 𝑝| < 𝛿. En nuestro caso, |𝑝̂ − 𝑝| < 0.0588.
¿Cómo podríamos disminuir la cota del error cometido? Una idea intuitiva podría ser aumentar el tamaño de
la muestra, como justificamos a continuación:
𝑝̂∙(1−𝑝̂)
Vimos que 𝛿 = |𝑧𝛼/2 |√ 𝑛
. Si queremos “controlar” cuánto nos equivocamos en la estimación,
podemos fijar un valor de precisión 𝛿 y, a partir de ese valor, averiguar cuál debe ser el tamaño de la
muestra.
𝑝̂∙(1−𝑝̂)
Por ejemplo si 𝛿 = 0.01 entonces despejamos 𝑛 de la ecuación 0.01 = |𝑧𝛼/2 |√ y si mantenemos
𝑛
la misma confiabilidad de la estimación y la estimación puntual obtenida de una muestra anterior, tenemos
0.90∙0.10
|𝑧𝛼/2 | = 1.96 y 𝑝̂ = 0.90, de donde 0.01 = 1.96√ 𝑛
y resulta 𝑛 ≅ 3458.

161
Stella Figueroa, María Aznar, Laura Distéfano, Gloria Prieto, Sandra Baccelli y Emilce Moler

El tamaño de muestra obtenido es extremadamente grande respecto de los valores usuales que rondan las
400 semillas.
11.4. Perspectivas de trabajo matemático con el problema
Mediante la simulación, las ideas intuitivas de la distribución empírica graficada fueron corroboradas al
superponer la distribución de probabilidades asociada. De esta manera, se puede describir el
comportamiento de la distribución empírica de las proporciones obtenidas y hacer predicciones sobre su
comportamiento, utilizando la distribución de probabilidades teórica.
La actividad de simulación podría favorecer la construcción de significados sobre el concepto de distribución
muestral. A partir de la generación de muestras de distintos tamaños, la recopilación de la información, la
representación gráfica e interpretación de la misma con el análisis de la forma y de la variabilidad, el cálculo
de los estadísticos descriptivos, su relación con la gráfica obtenida y el análisis de su significado, los alumnos
comprueban empíricamente la ley de los grandes números.
Esta situación de “familiarización” de conceptos de inferencia, como las distribuciones muestrales, produce
una mayor comprensión del significado de los objetos matemáticos involucrados, ya que para la resolución
de un problema real se ponen en juego el lenguaje específico utilizado, los conceptos intervinientes y el
procedimiento que dio lugar a la resolución del problema.
El trabajo podría continuarse con pruebas de hipótesis, que es la otra rama de la inferencia estadística. Por lo
que se podrían proponer actividades de profundización del problema, a partir del planteo de las hipótesis
para una proporción como la continuación de esta actividad didáctica de simulación propuesta, para luego
pasar a otros parámetros como la media y la varianza poblacional.
La simulación proporciona un método universal para obtener una estimación de la solución de problemas
estadísticos. Ayuda al estudiante a conocer las diferencias entre la frecuencia relativa o probabilidad
experimental y la probabilidad teórica. Es el puente que vincula el mundo real con la teoría estadística que la
sustenta. Así como trabajamos con la proporción, se podría haber trabajado con cualquier otra distribución
muestral como por ejemplo, la media muestral. En Internet se encuentran simuladores sobre distribuciones
muestrales, en donde se puede comparar simultáneamente la distribución de la población elegida con la
distribución de las muestras tomadas de ella, también se proporcionan los estadísticos muestrales en cada
caso.
11.5. Referencias bibliográficas
Batanero, C. (2003). La simulación como instrumento de modelización en probabilidad. Revista Educación y
Pedagogía 35(XV), 39-54.
Borrajo, C. (2006). Importancia de la calidad de semillas en el Curso internacional en ganadería bovina
subtropical. Reconquista, Santa Fe: Sitio Argentino de Producción Animal.
Craviotto, R. M.; Arango Perarnau, M. y Gallo, M. (2010). Calidad de Simiente 2010: ¿Por qué evaluar
Germinación? Para mejorar la Producción, 45, 41-43.
Michaut, L. (2011). Tecnología de Semillas: la calidad. Revista Institucional del Colegio de Profesionales de la
Agronomía 9 (36).
Zimmermann, L. (2007). Métodos Estadísticos de Análisis de Semillas. Conociendo el error de muestreo.
Parte 1. Revista Análisis de Semillas 1(1).

162
12. Crecimiento poblacional o demográfico

12
Crecimiento poblacional o demográfico

María Jorge, Fabián Espinoza, Kyriakos Petakos y Marcel Pochulu


12.1. Introducción
Al crecimiento poblacional o demográfico se lo define como el cambio que se produce en el número de
individuos de una población, de cualquier especie37, en un cierto plazo, y puede ser cuantificado como el
cambio en dicho número usando “tiempo por unidad” para su medición. Es un fenómeno biológico ligado a la
capacidad reproductiva de los seres vivos.
Los estudios del crecimiento de las poblaciones echan luz sobre la planificación de mejoras en el
rendimiento, la producción, la calidad de vida, etc. de las distintas especies, pero también alertan sobre la
explotación de los recursos naturales y la contaminación. Además, las determinaciones y predicciones del
crecimiento poblacional aportan innumerables herramientas que permiten planificar condiciones de salud,
producciones alimentarias y, en general, programas que ayuden al progreso de una especie. Estos estudios
pueden realizarse a partir de diversos modelos matemáticos, según la población tenga o no crecimiento
acotado, disponga o no de un nivel mínimo de individuos, esté expuesta o no a siembras y cosechas, crezca
o no con ritmo uniforme, etc.
Si analizamos el crecimiento de la población mundial (Figura 1), podemos advertir que a partir de 1950
prácticamente se ha triplicado, pues para principios del 2018 se estimaba en 7580 millones38, lo cual es
motivo de preocupación mundial. Este crecimiento no es homogéneo (Figura 2) y se pueden determinar
períodos de disminución y/o aumento, los cuales guardan estrecha relación entre los diferentes espacios
geográficos.

37El término crecimiento poblacional o demográfico se refiere técnicamente a cualquier especie, aunque casi siempre se alude a la
humana.
38 Fuente: Reloj de la población mundial, disponible en http://countrymeters.info/es/World

163
María Jorge, Fabian Espinoza, Kyriakos Petakos y Marcel Pochulu

Figura 1: Crecimiento de la población mundial 1750-205039

Figura 2: Crecimiento de la población de América por países

39 Fuente de la imagen: http://revistaseug.ugr.es/index.php/cuadgeo/article/viewFile/937/1111/1647

164
12. Crecimiento poblacional o demográfico

Nos proponemos abordar como problema el crecimiento poblacional o demográfico y, para ello, proponemos
la siguiente consigna:
Establecer y fundamentar un modelo matemático que permita describir la dinámica poblacional de Argentina.
Asimismo, anticipar la cantidad de habitantes que tendrá Argentina para dos años futuros particulares y
comparar los resultados con lo proyectado por organismos oficiales.
Entendemos que la respuesta tiene que estar fundamentada a través de un estudio matemático, más que
limitarse a la búsqueda de esta información en Internet.

12.2. Contextualización de la situación problema


Se pueden definir tres fases en el crecimiento poblacional: el inicio o fase de asentamiento, el intervalo de
abundancia o fase de desarrollo y la decadencia o fase de control.
Según Flores, Herrera y Hernández (2008), en ausencia de limitaciones impuestas por el medio, el destino
natural de una población es su crecimiento exponencial, ya que todas las especies biológicas están dotadas
para producir mayor número de descendientes que los necesarios para mantener el tamaño de la población.
Estas limitaciones, relacionadas con la competencia entre sus miembros por los recursos disponibles o la
distribución desigual de los mismos, ocasionan que la población no crezca infinitamente de manera
exponencial. Así, el crecimiento se reduce con el incremento de la densidad poblacional, alcanzando con el
tiempo un nivel máximo a partir del cual el crecimiento cesa.
En referencia a la población humana, datos de las Naciones Unidas indican que desde el año 1968 la
población mundial fue creciendo más lentamente cada vez. Las estimaciones de este organismo dan cuenta
de una estabilización de la población en unos 11500 millones de habitantes, aunque se está dando una
disminución claramente más rápida, hablándose ya de una estabilización en menos de 11000 millones
(Latouche, 2007). Brown (1998) sostiene que la estabilización de la población humana es fundamental para
detener la destrucción de los recursos naturales y garantizar la satisfacción de las necesidades básicas de
todas las personas. Una sociedad sostenible es una sociedad estable demográficamente, pero la población
actual está lejos de serlo.
Los estudios realizados sobre poblaciones reportan que en primer lugar existe un descenso de la mortalidad,
al tiempo que la fecundidad se mantiene elevada durante un período más o menos prolongado, lo cual tiene
como consecuencia una aceleración del crecimiento demográfico que será proporcional al desfase entre los
niveles de mortalidad y fecundidad que pudiera estar ocurriendo. Estos estudios se pueden realizar a partir
de diversos modelos matemáticos, según la población tenga o no crecimiento acotado, disponga o no de un
nivel mínimo de individuos, esté expuesta o no a siembras y cosechas, crezca o no con ritmo uniforme, etc.
12.3. Aproximaciones matemáticas el problema
Para avanzar en la búsqueda de respuestas al problema propuesto, haremos un recorte y simplificación del
mismo. Entendemos que el crecimiento demográfico mide el aumento, en un período específico, del número
de personas que viven en un país o una región. Ligado a este concepto está el de tasa de crecimiento
demográfico, el cual depende de la tasa de natalidad y de la tasa de mortalidad, de los movimientos
migratorios, entre otros. La tasa de natalidad depende, a su vez, de la tasa de fecundidad. La tasa de
fecundidad está influida por muchos factores, pero el principal es el nivel cultural de la sociedad y
especialmente de las mujeres, pues se acepta que a mayor cultura, menor número de hijos se tienen. La tasa
de mortalidad depende del grado de desarrollo económico y sanitario del país.
Una primera simplificación que hacemos del problema es no tener en cuenta todas estas variables del
crecimiento poblacional. Nos limitaremos a analizar datos numéricos aportados por los censos realizados en
Argentina en los últimos años y las tendencias que parecerían estar marcando.
Iniciamos entonces buscando los datos de los últimos censos realizados en Argentina. El objetivo será
encontrar algunos modelos que permitan estimar el crecimiento poblacional, con todas las limitaciones que
tiene el modelo encontrado debido a la simplificación realizada.

165
María Jorge, Fabian Espinoza, Kyriakos Petakos y Marcel Pochulu

De acuerdo con el INDEC40, la población de Argentina para los censos realizados fue la siguiente:

Tabla 1: Cantidad de habitantes de Argentina dada por Censos

Años Población

1869 1877490
1895 4044911
1914 7903662
1947 15893811
1960 20013793
1970 23364431
1980 27949480
1991 32615528
2001 36260130
2010 40117096
1869 1877490

Haremos un diagrama de dispersión y un primer ajuste. Partimos de un primer supuesto: “El crecimiento
poblacional de Argentina ha sido lineal”. Esto es: asumimos que cada año la población ha crecido en una
magnitud constante. A su vez, denotamos con 𝑁 el número de habitantes o población en millones de
personas, y con 𝑡, el tiempo transcurido desde 1869 (Figura 3).

Figura 3: Ajuste lineal al crecimiento poblacional de Argentina

40 INDEC: Instituto Nacional de Estadística y Censos, de Argentina. Es un organismo público, de carácter técnico que ejerce la
dirección superior de todas las actividades estadísticas oficiales que se realizan en el país.

166
12. Crecimiento poblacional o demográfico

Se observa, en general, que la recta hace un ajuste bastante bueno de los datos. Su pendiente indica que, en
promedio, a cada incremento de una unidad en el tiempo le corresponde un incremento aproximado de
280271 habitantes. Para ciertos intervalos de tiempo, el modelo lineal proporciona una cantidad de habitantes
superior a la arrojada por los censos, mientras que en otros es inferior.
Ahora bien ¿cómo podemos saber si es bueno el ajuste de la recta? Existen diversas formas de resumir el
grado en el que una recta se ajusta a una nube de puntos. Se podría usar la media de los residuos, o la
media de los residuos en valor absoluto, o las medianas de alguna de esas medidas, o alguna función
ponderada de esas medidas, etc.
Una medida de ajuste que ha recibido gran aceptación en el contexto del análisis de regresión es el
coeficiente de determinación 𝑅 2: el cuadrado del coeficiente de correlación múltiple. Se trata de una medida
estandarizada que toma valores entre 0 y 1 (0 cuando las variables son independientes y 1 cuando entre
ellas existe relación perfecta). El coeficiente de determinación representa la proporción de la variación total
de los valores de “𝑦” que se pueden explicar por una relación lineal con los valores de “𝑥”. 𝑅 2 × 100 se
puede interpretar como el porcentaje de la variabilidad de la variable dependiente explicada por el modelo de
regresión.
De manera que el modelo lineal es un buen ajuste para esta distribución de datos, pues el coeficiente de
determinación 𝑅 2 explica en un 96.07% la relación entre las variables tiempo y habitantes. Es decir, se
estima que el 96.07% de las variaciones en la población pueden ser explicadas por variaciones en el tiempo.
No obstante, para crecimientos poblacionales, los modelos lineales son aconsejables solamente en períodos
cortos (6 meses, 1 o 2 años). Este modelo proyecta una población de 39585977 para el año 2020, valor que
se encuentra por debajo de la proyección realizada por el INDEC (2013) para ese año, la cual es de
45376763, e incluso, de la cantidad de habitantes que tenía Argentina para el año 2010.
Si observamos el gráfico de la Figura 3, podemos advertir que la nube de puntos no está sobre una línea
recta, pero sí sugiere que podría ajustarse un modelo polinómico. Entre ellos, el más simple es el modelo
cuadrático. Nuevamente nos valemos de un software para realizar el ajuste (GeoGebra en este caso) y el
cálculo del coeficiente de determinación, pues la intención es analizar modelos y su poder predictivo, más
que realizar cálculos estadísticos.

Figura 4: Ajuste cuadrático al crecimiento poblacional de Argentina

Este modelo se constituye en un muy buen ajuste de esta distribución de datos, el 99.92% de las variaciones
en la población pueden ser explicadas por variaciones en el tiempo. Incluso, visualmente, podemos apreciar

167
María Jorge, Fabian Espinoza, Kyriakos Petakos y Marcel Pochulu

que es mejor que el modelo lineal. Pronostica una población de aproximadamente 45544936 habitantes para
el año 2020, siendo de 45376763 lo proyectado por el INDEC (2013) y de 56341262 habitantes para el 2040,
contra 52778477 estimado por el INDEC (2013).
Podríamos continuar con otros modelos polinómicos de grado mayor a dos, pero nos interesa hacer un
pasaje por diferentes ajustes. Consideremos ahora un modelo exponencial, en el cual se asume una tasa de
crecimiento que se aplica a la población en cada infinitésimo de tiempo y presupone una acumulación
instantánea (Figura 5).

Figura 5: Ajuste exponencial al crecimiento poblacional de Argentina

Este modelo también es un buen ajuste para la distribución de estos datos, según lo explica el coeficiente de
determinación 𝑅 2 en un 90.48 %. Estima una población de aproximadamente 62294257 habitantes para el
2020 y de 95641629 para el año 2040, aunque son cifras bastante alejadas de las que proyecta el INDEC.
Es importante destacar que, en ausencia de limitaciones impuestas por el medio (espacios, alimentos,
energías en general, etc.) y teniendo en cuenta que las especies biológicas están dotadas para producir
mayor número de descendientes que los necesarios para mantener el tamaño de la población, el crecimiento
no tendría cota. Los modelos anteriores pueden constituirse en importantes herramientas de predicción en
estos casos y bajo las hipótesis enunciadas. Una población con muy pocos individuos prácticamente no
enfrenta resistencia ambiental y, en consecuencia, su crecimiento es aproximadamente exponencial.
En los casos en que existan limitaciones del medio, como ocurre con la población humana en general, es
necesario considerar otro recurso de modelización. A medida que la población crece, la resistencia ambiental
aumenta, porque los recursos disponibles empiezan a escasear y los residuos se acumulan. En
consecuencia, el crecimiento de la población se desacelera, apartándose cada vez más del modelo
exponencial.
Cuando el tamaño de la población es igual a la capacidad de carga o sostenimiento, la tasa de crecimiento
per cápita es cero y el tamaño de la población permanece en equilibrio. Se llama capacidad de carga al
máximo número de individuos que el ambiente puede soportar. En ocasiones, una población puede estar por
encima de esta cota. Cuando esto sucede, la tasa de crecimiento es negativa (la mortalidad es mayor que la
natalidad) y la población disminuye. A veces esto ocurre porque la capacidad de sostenimiento, en vez de
permanecer constante, disminuye como consecuencia de cambios ambientales, inmigraciones, adaptación y
resistencia ambiental con retardo, etc.

168
12. Crecimiento poblacional o demográfico

Este tipo de crecimiento se puede modelizar mediante la siguiente ecuación diferencial:


𝑑𝑃
= 𝑎 ∙ 𝑃 ∙ (𝑘 − 𝑃)
𝑑𝑡

donde 𝑎 representa un factor de proporcionalidad. Por razones de conveniencia para el cálculo de esta
𝑎
ecuación diferencial, se puede introducir un nuevo factor 𝑟 = 𝑘, que representa la tasa de crecimiento de
baja población, cuando todavía no hay límites en los recursos. En este caso, el modelo se puede escribir:
𝑑𝑃 𝑃
= 𝑟 ∙ 𝑃 ∙ (1 − )
𝑑𝑡 𝑘
donde 𝑟 no es constante como en el modelo exponencial y la constante 𝑘 representa el número de individuos
que puede soportar un ecosistema sin sufrir un impacto negativo. En la realidad, la densidad de la población
no suele nivelarse en un estado estable inmediatamente por debajo de 𝑘, sino que fluctúa arriba y abajo del
mismo (Odum y Sarmiento, 1998).
En esta ecuación se puede determinar que 𝑟 ∙ 𝑃 define un crecimiento proporcional al número de individuos,
𝑟
lo mismo que sucede en el modelo exponencial, mientras que 𝑘 ∙ 𝑃2 , frena el crecimiento y cuando alcanza
un número de individuos tal que 𝑃 = 𝑘, el crecimiento se anula, teniendo en cuenta que 𝑃’ = 0.
Para obtener el comportamiento de una población que se rige según la ecuación anterior, se debe resolver la
ecuación diferencial, por ejemplo, por el método de separación de variables:
𝑑𝑃
= 𝑑𝑡
𝑃
𝑟𝑃 (1 − )
𝑘
1 1 1
( + ) 𝑑𝑃 = 𝑑𝑡
𝑟 𝑃 𝑘−𝑃
1 𝑃
𝑙𝑛 ( )=𝑡+𝐶
𝑟 𝑘−𝑃
𝑃
= 𝐴𝑒 𝑟𝑡
𝑘−𝑃
Al despejar 𝑃 de esta última expresión tenemos:
𝐴𝑘𝑒 𝑟𝑡
𝑃=
1 + 𝐴𝑒 𝑟𝑡
𝑃
Si se impone la condición inicial 𝑃(0) = 0, se obtiene 𝐴 = 𝑘−𝑃
0
; por lo tanto, la solución general de la
0
ecuación logística será:
𝑘𝑃0 𝑒 𝑟𝑡
𝑃(𝑡) =
𝑘 + 𝑃0 (𝑒 𝑟𝑡 − 1)
que recibe el nombre de función logística, curva logística o curva en forma de S41. El parámetro 𝑃0 determina
la población inicial del sistema y debe permanecer mayor que cero y menor que 𝑘. No puede ser cero, pues
la población inicial necesita de individuos para reproducirse. Tampoco puede ser igual a 𝑘, pues la población
tendría escasa o nula capacidad de reproducción.

41Este modelo, que a diferencia del exponencial puede caracterizarse como de crecimiento acotado, recibe el nombre de Verhulst, en
reconocimiento a su creador el matemático belga Pierre François Verhulst, en 1838.

169
María Jorge, Fabian Espinoza, Kyriakos Petakos y Marcel Pochulu

Cuando transcurre mucho tiempo, la población se estabiliza, alcanzando una cota 𝑘 que representa la
capacidad de carga del sistema; esto es:
lim 𝑃(𝑡) = 𝑘
𝑥→∞

Una vez conocido el comportamiento logístico de la distribución de datos y sobretodo la expresión algebraica
del modelo correspondiente, se pueden contestar las preguntas planteadas en el problema abordado. Esto
es, determinar la cantidad de individuos que tendrá la población de Argentina en cualquier tiempo, como así
también, el tiempo que transcurre en el cual la población logra alcanzar una determinada cantidad de
individuos. Cabe aclarar que a partir del solo uso de tablas o gráficos, no se pueden obtener las respuestas
requeridas por el problema.
La curva logística describe un ciclo de crecimiento que consta de las siguientes fases: a) una transición
gradual de condiciones casi estacionarias, a un aumento considerable de la población, b) una aceleración del
ritmo de crecimiento hasta que se aproxima a un máximo, c) un retardo del ritmo de aumento y, d) una
transición gradual hacia condiciones casi estacionarias.
Si no se desea abordar el problema partiendo del planteo y resolución de una ecuación diferencial, podemos
apelar a expresiones ya construidas para el modelo logístico, las que fácilmente se encuentran en los textos
de matemática o Internet. Por ejemplo, la fórmula siguiente corresponde al modelo logístico que propone
Stewart (1999):
𝑘
𝑃=
1 + 𝐵𝑒 −𝐴𝑡
Para el cálculo de estos parámetros, Espina Marconi (1984) propone una primera aproximación, cuando solo
se desea tener una idea de esta función. Para ello sugiere elegir tres puntos equidistantes en el tiempo (𝑡0 ,
𝑡1 y 𝑡2 ), de modo que ℎ = 𝑡1 − 𝑡0 = 𝑡2 − 𝑡1. Para los cálculos se hace 𝑡0 = 0, que debería coincidir con
un valor en donde crece la población en forma muy lenta. La elección de los demás puntos debe hacerse
para los momentos en que la serie demuestra rápidos crecimientos. Para el cálculo del parámetro 𝐴 se
debería utilizar la siguiente ecuación:
𝑦0 (𝑦2 − 𝑦1 )
𝑒 −𝐴ℎ =
𝑦2 (𝑦1 − 𝑦0 )
Para los demás parámetros, tendríamos:
𝑦0 (𝑦2 − 𝑦1 ) − 𝑦2 (𝑦1 − 𝑦0 )
𝑘 = 𝑦1
𝑦1 (𝑦2 − 𝑦1 ) − 𝑦2 (𝑦1 − 𝑦0 )
𝑘 − 𝑦0
𝐵=
𝑦0
Para realizar estas estimaciones de los parámetros, consideremos la tabla con datos de censos presentada
anteriormente. Cabe destacar que no tenemos puntos equidistantes en la serie histórica, razón por la cual el
modelo que aplicaremos tendrá sus limitaciones.
De acuerdo a las expresiones anteriores se deben escoger tres puntos cuyas distancias en lapsos de
tiempos sean muy parecidas. Estos puntos, indicados en la siguiente tabla, cuyas ordenadas son 𝑦0 , 𝑦1 e
𝑦2 , corresponden a los momentos en los que los datos se ajustan a las características del modelo logístico.

Años Años transcurridos Población (en millones)


desde 1869

1869 0 1.877490

1947 78 15.893811

2010 141 40.117096

170
12. Crecimiento poblacional o demográfico

Finalmente, el modelo logístico buscado a partir de estos datos resulta:


𝐴 = 0.032240703
𝑘 = 46.33078494
𝐵 = 23.67698626
En consecuencia, el modelo logístico quedaría conformado de la siguiente manera:
46.330785
𝑁(𝑡) =
1 + 23.676986 ∙ 𝑒 −0.032224𝑡
Este modelo proyecta 39197509 habitantes para 2020 y 42292010 para el 2040, los cuales distan bastante
de los estimados por el INDEC (2013). De todos modos, debemos recordar que el modelo es una primera
aproximación a la curva logística.
Los cálculos anteriores pueden evitarse, si recurrimos a los nuevos recursos y realizamos un ajuste logístico,
como queda reflejado en la Figura 6.

Figura 6: Ajuste logístico al crecimiento poblacional de Argentina

En este modelo se tiene que 𝑅 2 es 99.92%, por lo que el mismo puede considerarse un buen ajuste para
dicha distribución de datos. Se estima que la población en el año 2020 será de cerca de 43428176 habitantes
y de 49146446, para el 2040. Ambos valores se encuentran por debajo de los proyectados por el INDEC
(2013), e incluso por los estimados en el modelo polinómico de grado 2 que resultaba tener un buen ajuste.
Realicemos ahora una comparación y análisis de datos y modelos de ajustes. Comenzamos por recuperar
cada uno de los modelos abordados en un mismo gráfico (ver Figura 7).
Los modelos matemáticos que se han utilizado anteriormente, como ya hemos visto, pueden ser usados para
estimar la población en un momento determinado, ya sea en un momento entre dos censos o predecir la
población en un momento futuro o pasado. Cuando la estimación se realiza para un momento entre dos
puntos conocidos (dos censos) se llama interpolación; pero cuando se realiza hacia el futuro o hacia el
pasado de un período conocido, se le llama extrapolación.
Como se puede apreciar, existen importantes diferencias en las predicciones hechas por los diferentes
modelos con respecto a la población de Argentina para los años 2020 y 2040. Si tenemos presente la
estimación realizada por el INDEC (2013) sobre la población de Argentina para los años en cuestión, los

171
María Jorge, Fabian Espinoza, Kyriakos Petakos y Marcel Pochulu

valores se encuentran comprendidos entre los determinados por el modelo polinómico y el logístico, lo cual
también se puede apreciar en el gráfico de la Figura 7.

Figura 7: Diferentes modelos de ajustes al crecimiento poblacional de Argentina

Si tenemos presente los resultados del censo 2010, difundidos por el INDEC, en Argentina viven alrededor de
40117096 habitantes, lo cual representa un 10.6 % más que la década anterior. Esta cifra confirma que existe
un crecimiento poblacional cada vez más lento. Ubica al país en una transición demográfica, lo cual significa
que se aleja de los países de menor desarrollo, donde las tasas de crecimiento llegan al 3% anual, y se
acerca a los países desarrollados, donde la tasa de natalidad es menor. La tasa del 10.6 % es esperable con
las proyecciones que existían, las que estimaban un aumento de 1.5 % anual.
La población argentina sigue creciendo, aunque con menor tasa de acuerdo con los últimos censos y
entonces estaría en el tramo de retardo del ritmo de aumento del modelo logístico. Se podría interpretar que
todavía falta bastante tiempo para que la población se estabilice.
Por estar en esta etapa de crecimiento y además por considerar un breve lapso de tiempo de estudio (1869 -
2010), los modelos lineal, exponencial y cuadrático se ajustan bastante bien a la distribución de datos. Si se
aumenta este lapso de tiempo de estudio, quizás se obtengan modelos que permitan predecir mejores
resultados. Por lo expresado anteriormente, el modelo logístico sería, de los cuatro analizados, el que mejor
ajusta el crecimiento poblacional del país a largo plazo, con las limitaciones que le impusimos al estudio.
12.4. Perspectivas de trabajo matemático con el problema
El trabajo de estimación de la población argentina empleando ciertos modelos de crecimiento poblacional, al
cual se abocó este problema, resulta una actividad matemática relevante para realizar con los estudiantes.
Específicamente, se podrían proponer tareas de predicción de la población en lapsos pequeños de tiempo y
en otros mayores, comparar los resultados y extraer conclusiones. Asimismo, resulta relevante que se
reflexione sobre las extrapolaciones que se efectúan con modelos funcionales y la simplificación que se le
impuso al problema (solo considerar datos numéricos y prescindir de otras variables demográficas).
Todo lo referido al modelo logístico tiene innumerables aspectos para ser profundizados. En la resolución del
problema utilizamos una primera aproximación que propone Espina Marconi (1984). No obstante, el mismo
autor propone una segunda aproximación que mejora la estimación requerida y supone una corrección de los

172
12. Crecimiento poblacional o demográfico

parámetros con todos los valores disponibles, lo cual conlleva a disponer de conocimientos de Probabilidad y
Estadística que sobrepasan los propósitos de este trabajo.
En el ámbito del trabajo sobre el modelo logístico, cabe preguntarse: ¿la tasa de crecimiento de la población
de Argentina aumenta, disminuye o permanece constante? ¿Se podría prever en qué momento empezará a
estabilizarse la población? ¿El crecimiento poblacional que ha tenido cierta ciudad de Argentina se
corresponde con el seguido por el país?, entre otras preguntas.
En el campo de las ciencias sociales y naturales, pueden constituirse en herramientas pertinentes para el
análisis, la predicción y estimación de datos y resultados, con el fin de tomar decisiones tendientes a mejorar
la producción, el rendimiento, la calidad de vida, etc. de las especies. Si bien en este trabajo centramos la
atención en el empleo del modelo logístico, por sus abundantes e importantes aplicaciones, debemos
mencionar que existen otros modelos de crecimiento poblacional que surgieron a partir de ciertas
modificaciones realizadas sobre el modelo logístico (Stewart, 1999). Precisamente, la ecuación diferencial:
𝑑𝑃 𝑃
= 𝑘𝑃 (1 − ) − 𝑐
𝑑𝑡 𝑘
se usa para modelar las poblaciones que están sujetas a “cosechas” (por ejemplo, una población de peces
que se capturan a una razón constante).
Asimismo, existen casos de algunas especies que tienen un nivel mínimo 𝑚 de la población, por debajo del
cual la población tiende a extinguirse, cuyo crecimiento se modeliza a través de la ecuación diferencial:
𝑑𝑃 𝑃 𝑚
= 𝑘𝑃 (1 − ) (1 − )
𝑑𝑡 𝑘 𝑃
𝑚
donde el factor adicional 1 − 𝑃 , toma en cuenta las consecuencias de una población dispersa.
En aquellos casos en los que el crecimiento de una población es más lento al principio y al final de un
período de tiempo, se emplea el modelo dado por la siguiente ecuación diferencial:
𝑘
𝑃′(𝑡) = 𝑎 ∙ 𝑙𝑜𝑔 ( ) 𝑃(𝑡)
𝑃(𝑡)
Los ajustes del modelo logístico podrían ser problematizados y discutidos en clases, a partir de situaciones
reales que permitan hacer emerger otros modelos como los indicados anteriormente.
12.5. Referencias bibliográficas
Brown, L. (1998). La construcción de una nueva economía. En L. Brown, C. Flavin y H. French (Eds.), La
situación del mundo. Un informe del Worldwatch Institute sobre el progreso hacia una sociedad
dostenible (pp. 311-346). Barcelona, España: Icaria.
Espina Marconi, L. (1984). Serie de estudios económicos. Documentos de investigación. Santiago, Chile:
Departamento de informaciones estadísticas y publicaciones del Banco Central de Chile.
Flores, R.; Herrera, L. y Hernández, V. (2008). Ecología y medio ambiente. México: Cengage Learning.
INDEC (2013). Estimaciones y proyecciones de población 2010-2040: Total del país. Buenos Aires,
Argentina: Instituto Nacional de Estadísticas y Censos.
Latouche, S. (2007). Sobrevivir al desarrollo. De la descolonización del imaginario económico a la
construcción de una sociedad alternativa. Barcelona, España: Icaria Editorial.
Odum, E. y Sarmiento, F. (1998). Ecología. El puente entre ciencia y sociedad. México: Mc Graw Hill
Interamericana.
Stewart, J. (1999). Cálculo. Conceptos y contextos. México: International Thomson Editores.

173
13. Rendimiento de genotipos de maíz en respuesta a arreglos topológicos

13
Rendimiento de genotipos de maíz en
respuesta a arreglos topológicos

Marcel Pochulu
13.1. Introducción
El maíz (Zea mays en su denominación científica) es una gramínea anual cuyo origen no es claro, pero
algunos historiadores, entre ellos Matsuoka, Vigouroux, Goodman, Sanchez, Buckler & Doebley (2002),
señalan que es originaria de los pueblos indígenas de México y posteriormente introducida en Europa, en el
siglo XVII. En la actualidad es el cereal que más se produce en el mundo, con cualidades alimenticias para la
producción de proteína animal, consumo humano, e infinidad de usos como pegamentos o combustibles
como el etanol. A su vez, el cultivo y transformación del maíz es una fuente de empleo y alimento para
muchas personas en el mundo (FIRA, 2016).
Como todo cultivo requiere de un buen manejo agronómico por parte del productor, desde la preparación del
suelo hasta la dosis de semillas que pondrá por hilera y distancia entre ellas, pues serán determinantes en
los rendimientos que se obtengan.
¿Cuál es el modo más óptimo de disponer las semillas de maíz en el campo de cultivo? Diversos productores
acuerdan en señalar que el maíz es un cultivo que requiere una alta precisión de siembra, razón por la cual
recomiendan mantener una distancia entre hileras de 70 a 75 cm, con 7 a 9 semillas por metro lineal. En este
punto, Cirilo (2004, p. 128) expresa que:
El rendimiento en maíz es particularmente sensible a las variaciones en la población de plantas.
Bajo condiciones de riego y fertilización, reducciones de 75% en la densidad correcta producen
mermas de rendimiento cercanas al 50%, mientras que la duplicación de la densidad inicial
disminuyó el rinde un 20%.
Ahora bien, ¿cuál es la densidad de plantas adecuadas para producir impacto positivo en el rendimiento?
Dando una respuesta parcial a este interrogante, Reta, Gaytán y Carrillo (2003, p. 76) expresan que:
La siembra del maíz en arreglos topológicos con surcos angostos respecto a surcos
convencionales (0.76 m), permite incrementar el rendimiento de grano como consecuencia de
disminuir la competencia entre plantas dentro del surco por luz, agua y nutrimentos. El nivel de

175
Marcel Pochulu

respuesta del maíz a la disminución de la distancia entre surcos puede variar de acuerdo a las
condiciones ambientales y a la adaptabilidad de los genotipos, aunque en híbridos de liberación
reciente, es raro encontrar interacción significativa para distancia entre surcos x híbridos.
También Cirilo (2004, p. 133) aporta elementos en la misma dirección, pues comenta que:
El empleo de surcos angostos puede resultar beneficioso cuando el cultivo -sembrado a la
distancia convencional- no puede alcanzar la cobertura total del suelo en la floración. Sin
embargo, con cultivos bien manejados y con las densidades correctas, el maíz alcanza plena
cobertura del suelo en floración, independientemente de la distancia entre los surcos.
No obstante, desde los últimos años aparecen recomendaciones que exaltan la siembra de cultivo en surcos
apareados, doble fila o hiladas dobles, más conocida con su denominación en inglés de twin rows (TR).

Figura 1: Disposición de siembra de maíz en twin rows

El principio básico del TR es proporcionar más espacio entre las plantas, lo cual permite una mayor población
y mayor número de espigas. Los estudios parecen mostrar que el sistema TR les brinda mayor espacio a las
raíces antes de que se topen con las raíces vecinas. Por ejemplo, la firma comercial Great Plains
Manufacturing, Inc., de Kansas (USA), dedicada a la venta de maquinarias agrícolas, señala en su página
oficial las ventajas del sistema, como puede verse en la Figura 2.

Figura 2: Disposición de siembra en hiladas dobles o simples42

42 Fuente de la imagen: www.twin-row.com

176
13. Rendimiento de genotipos de maíz en respuesta a arreglos topológicos

Con la misma filosofía, la compañía DeKab (2014) promueve también el sistema de plantación de TR,
basándose en el concepto de un mejor aprovechamiento de los espacios por las plantas, tanto de superficie
foliar como radicular. Menciona que los principios agronómicos que rigen este tipo de siembra son:
- Permite un mayor desarrollo radicular de las plantas de maíz y aprovecha un mayor porcentaje de
cada hectárea de tierra (14 % en un sistema convencional contra un 45% con la siembra en líneas
gemelas).
- Maximiza el aprovechamiento de la luz y ayuda a prevenir pérdidas de agua por evaporación directa
(30% de la luz en un sistema convencional contra un 90% en siembra de TR).
- Mejora la estabilidad y resistencia a caída del maíz debido a que se aumenta hasta un 6% el
diámetro del tallo.
- No exige un cambio radical de maquinaria.
Sin embargo, el trabajo de Reta, Gaytán y Carrillo (2003) recopila diferentes estudios realizados sobre la
temática y concluyen que no se encuentran ventajas con arreglos topológicos diferentes como surcos
estrechos respecto a surcos con distanciamiento tradicional, ni tampoco al aumentar la distancia entre surcos
sembrados a doble hilera o TR.
Aquí nace nuestra situación problema y proponemos la siguiente consigna:
Estudiar la relación entre genotipos del maíz y arreglos topológicos a fin de evaluar si existen ventajas en la
siembra a surco simple sobre los de doble hilera o TR. Entendemos que la respuesta tiene que estar
fundamentada a través de un estudio matemático propio, más que limitarse a la búsqueda de esta
información en Internet o análisis superficial de datos experimentales encontrados.

13.2 Contextualización de la situación problema


Si bien todos los maíces pertenecen a una misma especie, se presentan en la naturaleza una multiplicidad de
formas, tamaños, colores, texturas y adaptación a diferentes ambientes, constituyendo numerosas
variedades primitivas o tradicionales (ver Figura 3) que son cultivadas en todo el mundo.

Figura 3: Variedades de maíz


Desde el punto de vista comercial se utilizan algunas variedades y usualmente, se clasifican de acuerdo con
la dureza del grano. Gear (2006) distingue las siguientes:

177
Marcel Pochulu

- Tipos duros o Flint. Tradicionalmente se utilizaba para la obtención de polenta, pero actualmente se
lo emplea para la fabricación de cereales para desayuno o como alimento para animales.
- Tipos dentados. Son utilizados por la industria de molienda húmeda para la obtención de alcohol,
almidones y fructosa, entre otros ingredientes empleados en la industria alimentaria.
- Tipos reventadores, Pisingallo o Popcorn. En contacto con el calor, se expande formando la
palomita o roseta de maíz.
- Tipos harinosos. Son utilizados para su consumo fresco (choclo o elote) y en la elaboración de
diversas comidas tradicionales basadas en harina de maíz.
Según la FAOSTAT (Food and Agriculture Organization of the United Nations) los principales productores de
maíz, para el año 2016, fueron los que se detallan en la Tabla1 (FIRA 2016).

Tabla 1: Producción mundial de maíz en 2016

País Producción (miles de toneladas)

Estados Unidos 386 748

China 219 554

Brasil 86 500

Argentina 44 500

Ucrania 27 000

México 24 500

India 24 500

Francia 15 614

Sudáfrica 13 000

Venezuela 10 906

En Argentina, el maíz se siembra bajo la técnica de siembra directa y la semilla utilizada ha sufrido
numerosos cambios e innovaciones en las últimas décadas. Compañías como Monsanto, Syngenta, Dow
Chemical, Pionner, KWS Argentina, Nidera, entre otras, desarrollan variedades de maíz con diversas
cualidades como resistencia a plagas o resistencia al herbicida glifosato.
Un detalle relevante a considerar es que si se siembran semillas de maíz híbrido, luego se cosecha y se
vuelven a sembrar las semillas, ya no se tendrá el mismo híbrido. Algunas plantas se parecerán al padre del
híbrido, otras a la madre, otras serán intermedias y más extraño aún, existirán otras que no tendrán ningún
parecido a las que se usaron para producir el híbrido. Por consiguiente, el rendimiento y la resistencia a
plagas va a ser mucho menor en el cultivo sembrado con semilla reciclada, comparado con el híbrido.
13.3. Aproximaciones matemáticas al problema
Son numerosos los trabajos que abordan la temática que nos proponemos para esta situación problema. La
mayoría de ellos se enfocan en estudiar la densidad y distancia de siembra del maíz, mientras que otros lo
hacen comparando diferentes arreglos espaciales (densidad, espaciamiento y uniformidad), logrado con
surco simple o surco doble.

178
13. Rendimiento de genotipos de maíz en respuesta a arreglos topológicos

En estos últimos trabajos radica nuestro interés y seleccionamos el que llevaron a cabo Reta, Gaytán y
Carrillo (2003), en el Campo Experimental La Laguna, ubicado en Matamoros, Coahuila, México. En
particular, tomaremos un recorte de la investigación para adaptarla a un contexto escolar.
En el año 2000, Reta, Gaytán y Carrillo (2003) evaluaron 15 tratamientos de siembra de maíz que resultaron
de la combinación de cinco arreglos topológicos (Surco simple (SS) con una separación entre ellos de 0.38,
0.50 y 0.76 metros, y Surco Doble (SD) o TR, con separación entre surcos de 1.00 y 1.05 metros) con tres
híbridos de maíz (Pioneer 3002W, Pioneer 3025W y Garst 8285). En los tratamientos se utilizó la misma
densidad de población de 11.2 𝑝𝑙𝑎𝑛𝑡𝑎𝑠/𝑚2 . Los datos experimentales obtenidos los sistematizamos en la
siguiente tabla.

Tabla 2: Rendimiento de genotipos de maíz a arreglos topológicos

Genotipo
Arreglo
topológico Pionner 3002W Pionner 3025W Garst 8285
Rendimiento Numero de Peso 2000 Rendimiento Numero de Peso 2000 Rendimiento Numero de Peso 2000
(kg/ha) granos por m2 granos (g) (kg/ha) granos por m2 granos (g) (kg/ha) granos por m2 granos (g)

SD 1.00 m 5738 4036 400 9349 5689 391 8451 5167 422

SD 1.05 m 5746 4067 402 7253 4932 365 8456 5018 433

SS 0.38 m 5237 3855 404 8782 5073 383 10780 5751 440

SS 0.50 m 6215 4409 400 9226 5235 387 9251 5362 453

SS 0.76 m 5869 3895 425 7505 4615 401 8165 4585 466

A partir de la Tabla 2 iniciamos nuestro estudio, realizándole un primer recorte o simplificación: analizar la
relación entre arreglo topológico y rendimiento por hectárea para cada genotipo. Entendemos que las demás
componentes de rendimiento son relevantes para hacer un estudio en mayor profundidad, una vez que
comprendemos la relación entre las dos seleccionadas.

Figura 4: Diagrama de dispersión de rendimiento por hectárea para cada genotipo y separación entre surcos

179
Marcel Pochulu

Realizar un diagrama de dispersión como el efectuado en la Figura 4 no aporta demasiada información para
llevar a cabo un análisis. No obstante, nos permite tomar una primera decisión: analizar por genotipo y por
distancia entre surco o arreglo topológico. Para rendimientos para surco simple, disponemos de tres datos
por genotipo, lo cual permite ajustar una única función polinómica de grado 2 (siempre y cuando los puntos
no se encuentren alineados). Para el rendimiento para siembras en surco doble o TR, disponemos de 2
datos, para lo cual tendríamos un sinnúmero de modelos que se ajustarían adecuadamente. No obstante,
resulta razonable que nos quedemos con un ajuste lineal, pues no existen razones para proponer otro
modelo, como un exponencial.
Los modelos de ajuste para el genotipo Pionner 3002W se contemplan en la Figura 5. Se puede advertir que
para la siembra en surco simple parecería ofrecer un mayor rendimiento una separación de 60 cm entre
surcos o hileras (vértice de la función polinómica de segundo grado). De todos modos, las sembradoras y
fundamentalmente la marca comercial, limitan el rango de posibilidades que podría tener la separación entre
surcos, y esto sería un impedimento técnico. Por lo pronto, la separación usual usada en Argentina, de
aproximadamente 50 cm entre hileras, resulta ser la más conveniente para este genotipo de maíz.
Por otra parte, el genotipo Pionner 3002W parece no ser adecuado para el sistema de siembra en TR o surco
doble. Incluso, el rendimiento que tiene en siembra por TR es superado por la separación usual en surco
simple (50 o 76 cm) y solo tiene cierta ventaja ante la siembra en surco simple con una distancia de 38 cm
entre ellos.

Figura 5: Rendimiento por hectárea y separación entre surcos para el genotipo Pionner 3002W

Para el genotipo Pionner 3035W la situación no resulta similar que la del Pionner 3002W (ver Figura 6). En
surco simple logra un mayor rendimiento por hectárea, cuando se tiene una separación o distancia de 50 cm
entre hileras.
Para la siembra en hilera doble o TR, parece adaptarse adecuadamente para una separación entre surcos de
1 metro e, incluso, podría anticiparse que una separación menor lograría un mejor rendimiento por hectárea
(no así una separación superior a 1.05 metros).
De todos modos, la comparación entre arreglos topológicos no parece significativa. Si pensamos que un
productor debería cambiar la maquinaría (principalmente la sembradora) para adaptarse a la siembra TR, no
existen fundamentos suficientes que justifiquen el cambio de sistema de siembra, si emplea como semillas el
genotipo Pionner 3035W.

180
13. Rendimiento de genotipos de maíz en respuesta a arreglos topológicos

Figura 6: Rendimiento por hectárea y separación entre surcos para el genotipo Pionner 3025W

Finalmente, para el genotipo Garst 8285, se tiene que el sistema de siembra en surco simple aventaja al de
hilera doble o TR cuanto menor es la distancia entre ellos (Figura 7). Nuevamente, estamos ante la situación
en la que el sistema de siembra por hilera doble o TR no tiene una marcada ventaja ante el de surco simple.

Figura 7: Rendimiento por hectárea y separación entre surcos para el genotipo Garst 8285

La Figura 8 muestra el rendimiento por hectárea y separación entre surcos para los tres genotipos. Es
interesante destacar que si no se hubiera separado por genotipo, y contáramos con datos de estudios
aislados, podría llegarse a la errónea conclusión de que el sistema de siembra por surco doble o TR aventaja
notablemente al de surco simple. Por ejemplo, podemos advertir que los rendimientos por hectáreas para los
genotipos Garst 8285 y Pionner 3025W en un arreglo topológico de surco doble tienen marcadas ventajas

181
Marcel Pochulu

contra una siembra de surco simple del genotipo Pionner 3002W. Conocer que estamos tratando con
diferentes híbridos ayuda a establecer algunas conclusiones.

Figura 8: Rendimiento por hectárea y separación entre surcos para los tres genotipos

Cirilo (2004, p. 130) expresa que “la modificación de la distancia entre los surcos en maíz plantea dificultades
operativas para llevarla a la práctica, por lo que deberá aconsejarse solo cuando puedan esperarse
beneficios de su empleo”. Entendemos que existe una estrecha relación entre genotipos de maíz y distancia
entre surcos, razón por la cual el productor debería conocer estos detalles. Esta última apreciación guarda
relación con lo expuesto por Águila, Violic y Gebauer (1971, p. 201) cuando expresan que: “se supone que en
el futuro, híbridos con arquitectura distinta, podrían aprovechar mejor la diferente distribución de plantas que
se logra en las hileras angostas”.
A su vez, el trabajo desarrollado en Argentina por Bragachini, Méndez, Scaramuzza, Villarroel, Vélez y
Sánchez (2010) muestra que una distancia entre surcos de 0.525 metros en hilera simple es la que logra
mejores resultados en la mayoría de las situaciones de cultivo que se presentan, y que el tratamiento TR no
está superando al de surco simple.
Es de destacar que el análisis de la relación entre genotipos y arreglos topológicos no marcó ventajas para el
sistema de siembra por TR, pero también es cierto que se hicieron comparaciones para variables que no se
mantuvieron constantes. Esto es, la separación entre surcos simples no fue la misma a la utilizada en surcos
dobles. Hubiera sido apropiado haber comparado dos sistemas de siembra en donde permanecieran
constantes algunas variables de rendimiento, como por ejemplo, la densidad de plantas y la distancia entre
surcos.
13.4. Perspectivas de trabajo matemático con el problema
El trabajo puede continuarse, indefectiblemente, incorporando otras variables del rendimiento del maíz que
en la resolución del problema no tuvimos en cuenta. Incluso existen bases de datos que muestran el
rendimiento del maíz ante diferentes densidades de siembra, pues en el trabajo desarrollado fue constante
para los diferentes tratamientos.
Por ejemplo, Vallone, Giudelf, Galarza, Masiero, Ferreira y Canale (2011) realizaron una serie de ensayos
referidos al cultivo de maíz, con el propósito de evaluar el efecto de la distancia entre surco y la densidad de
plantas sobre el rendimiento en granos (Tabla 3).

182
13. Rendimiento de genotipos de maíz en respuesta a arreglos topológicos

Los ensayos consistieron en evaluar la densidad en dos distancias de siembra (52 cm y 70 cm) entre surcos.
El tamaño de las parcelas fue de 4 surcos de 7 metros de longitud, donde evaluaron el rendimiento sobre los
dos surcos centrales. Con diferentes modelos matemáticos se puede establecer la densidad de siembra que
estaría produciendo el mayor rendimiento de maíz para las diferentes distancias entre surcos.

Tabla 3: Rendimiento de maíz ante diferentes distancias entre surcos

Distancia entre surcos de 52 cm Distancia entre surcos de 70 cm


Densidad de plantas Rendimiento Densidad de plantas a Rendimiento
a cosecha de maíz cosecha de maíz
(plantas/ha) (kg/ha) (plantas/ha) (kg/ha)
53.864 12.923 56.200 14.152

67.300 14.782 63.300 13.609

76.282 16.038 69.523 14.105

88.769 15.790 82.400 15.562

91.800 15.487 90.500 15.629

También existen innumerables trabajos que abordan el rendimiento y densidad de siembra para otras
variedades de plantas, como la soja por citar un ejemplo, las cuales se pueden adaptar mejor a la realidad de
los estudiantes y su entorno cotidiano.
13.5. Referencias bibliográficas
Águila, A.; Violic, A. y Gebauer, J. (1971). Efectos de población y distancia de siembra entre hileras, sobre
rendimiento y otras características de dos híbridos de maíz (Zea mays L.). Agricultura Técnica,
31(4), 198-203.
Bragachini, M.; Méndez, A.; Scaramuzza, F.; Villarroel, D.; Vélez, J. y Sánchez, F. (2010). Sistema de
siembra con surcos apareados en cultivo de maíz. Manfredi, Argentina: INTA.
Cirilo, A. (2004). Rendimiento del cultivo de maíz: Manejo de la densidad y distancia entre surcos en maíz.
Idia XXI, 4(6), 128-133.
DeKab (2014). Manejo del Cultivo de maíz: Twin-Row. Illinois, USA: DeKalb Genetics Corporation.
FIRA (2016). Panorama Agroalimentario – Maíz 2016. México: Dirección de Investigación y Evaluación
Económica y Sectorial.
Gear, J. (2006). El cultivo de maíz en la Argentina. En ILSI (Ed.), Maíz y Nutrición Informe sobre los usos y
las propiedades nutricionales del maíz para la alimentación humana y animal (pp.4-8). Buenos Aires,
Argentina: International Life Sciences Institute
Matsuoka, Y.; Vigouroux, Y.; Goodman, M.; Sanchez, J.; Buckler, E. & Doebley, J. (2002). A single
domestication for maize shown by multilocus microsatellite genotyping. Proceedings of the National
Academy of Sciences of the United States of America (PNAS), 99(9), 6080–6084.
Reta, D.; Gaytán, A. y Carrillo, J. (2003). Rendimiento y componentes del rendimiento de maíz en respuesta
a arreglos topológicos. Revista fitotecnia Mexicana, 26(2), 75-80.
Vallone, P.; Giudelf, V.; Galarza, C.; Masiero, B.; Ferreira, L. y Canale, A. (2011). Ensayo de densidad y
distancia de siembra de maíz. Marcos Juárez, Argentina: INTA.

183
14. Crecimiento compensatorio en vaquillonas Aberdeen Angus

14
Crecimiento compensatorio en vaquillonas
Aberdeen Angus

Marcel Pochulu
14.1. Introducción
Ante la inminente expansión agrícola, los sistemas ganaderos han tenido que evolucionar, adaptándose a
diferentes escenarios que les imponen el cambio de ubicación geográfica y la búsqueda de nuevas
estrategias de producción acordes a dichos escenarios. En Argentina, la actividad ganadera se concentra
principalmente en la región pampeana y en menor proporción le siguen el Nordeste, Patagonia, Noroeste y
Cuyo, ocupando el primer lugar los vacunos, seguidos por los ovinos, porcinos, aves, equinos y caprinos.
En cuanto a producción de carne y leche se destacan las razas Shorthorn, Hereford y Aberdeen Angus. En
los últimos años se han incorporado nuevas razas como Brahman, Charolais, Fleckvieh, Limousin, Pardo
Suizo, Polled (sin cuernos) y Santa Getrudis, entre otras, que han permitido mejorar la calidad y el
rendimiento de las carnes, especialmente para la exportación.
La intensificación de la producción, asociada con procesos de mayor producción de carne en espacios
reducidos, parece ser una buena alternativa de los últimos tiempos. La recría y terminación de los animales
se ha perfilado hacia el confinamiento con dietas que, en la mayoría de los casos, presentan altas cantidades
de grano. Esta elevada concentración energética permite maximizar y/o optimizar la ganancia diaria de peso
y la eficiencia de terminación del vacuno. Esto se debe mayormente a las menores pérdidas en la conversión
de energía a producto y a los menores gastos energéticos en los que incurre el animal para proveerse del
alimento. La realidad y los objetivos de cada productor son determinantes al momento de decidir una
estrategia de producción y debe ser analizada en detalle a fin de lograr la eficiencia global del sistema, sin
caer en problemáticas como las planteadas por Clifton, Cabana, Manero y Barahona (2001, p.2) cuando
expresan:
Aquí cada uno hace lo que le parece, lo que le gusta o está de moda. Todos prueban y la
realidad nos indica que es tal cual. En este marco en que no existe la especialización, la
anarquía es tan grande que el propio productor se puede pasar la vida probando y con ello no
solo pierde el rumbo, sino que, lo que es más importante, pierde la seguridad en lo que está
haciendo, pierde la capacidad de poder corregir errores y mejorar su producción, pierde las

185
Marcel Pochulu

posibilidades de “revancha”, y como corolario de todo esto aumenta los riesgos de fracasos y por
ende de quebrantos económicos.
En este sentido, la nutrición juega un papel principal en el desarrollo del ganado y en particular, en la cría de
vaquillonas, cualquiera sea su raza. Una inadecuada alimentación disminuirá el crecimiento, bajará la
ganancia de peso diario y, consecuentemente con esto, un número bajo de vaquillonas entrará en ciclo
cuando comience la época de cruza o servicio. Al mismo tiempo, las tendencias actuales en cría y
reproducción de ganado llevan a intensificar la producción y rendimiento, donde adquiere un rol importante el
feedlot o engorde a corral.
Feedlot es un término inglés y de uso corriente en Argentina usado para designar la versión contemporánea
de lo que antiguamente eran los corrales de engorde de ganado. El sistema de engorde a corral se aplica con
diferentes tipos de animales y conlleva confinar los animales en un determinado espacio físico y
proporcionarles la alimentación adecuada, en lugar del tradicional sistema de pastoreo a campo, donde los
animales procuran conseguir la comida por sus propios medios.
Pitluk (2010) muestra una visión negativa sobre el feedlot, pues si bien permite la terminación de animales
muy jóvenes en menor tiempo, atenta contra la reconstrucción del rodeo nacional, iguala en terneza las
carnes de animales de menor calidad y promueve el proceso de sojización del país, pues parece solucionar
el problema de la falta de tierra o campo. Otros autores, como Laporta Pomi, León y Melnik (2011)
encuentran más ventajas que desventajas al feedlot. Puntualmente expresan que:
Es una actividad que nos permite alcanzar una producción de carne de alta calidad por animal,
en el menor tiempo posible, maximizando la ganancia de peso diaria, obteniendo así una alta
eficiencia de conversión. Los principales factores que favorecen la instalación de estos predios
radican en gestionar un bajo precio de la ración y alto valor de la carne. Esta situación es uno de
los principales motivos que impulsan a los hacendados a transformar el cereal de producción
propia en carne, obteniendo así una alta rentabilidad para la empresa y aumentando la cadena
de valor de la actividad agraria. En caso que la producción de alimentos sea propia, se dan
diversas ventajas como por ejemplo, interesantes economías por no incurrir en gastos de
comercialización y de fletes, aprovechar diferentes tipos de subproductos, aprovechamiento de la
caída de los precios de los granos, que componen la ración para los animales, en períodos
zafrales y otros. A su vez otra ventaja que se refleja en el feedlot es el mantener la calidad
constante del producto, la cual se logra mediante la dieta balanceada y estabilizada que se les
brinda a los novillos a lo largo del período de encierre. El brindarle a los mismos en los últimos
90 a 120 días una alimentación con alto nivel de energía basada en cereales, permite una
terminación consistente y uniforme, con lo cual se obtiene la misma calidad de carne durante
todo el año. En el caso de ganado en base a pastoreo sólo se logra una buena terminación en
primavera. En las demás estaciones no se alcanza el tamaño suficiente para proveer carne
adecuada en condiciones económicas. La carne que se obtiene con el engorde a corral tiene un
mayor marmoleado (grasa introducida entre las fibras musculares), que asegura un mayor sabor
y terneza, obteniendo un mejor color (rosado brillante), que el consumidor asocia con carne más
fresca y de mejor calidad. (pp. 3-4)
No obstante, Bavera, Bocco, Beguet y Petryna (2005, p. 1) advierten que “los animales nutridos
deficientemente dentro de ciertos límites en algunos momentos de su vida, pueden realizar, sometidos luego
a un régimen alimentario abundante, aumentos de peso superiores a los logrados con el mismo régimen
abundante por animales bien nutridos”. Este mecanismo de autodefensa que desarrolla un animal para
alcanzar el peso normal se lo denomina crecimiento o aumento compensatorio.
En términos gráficos, el crecimiento compensatorio se entiende como la tendencia general de la curva de
crecimiento a recuperar sus características normales después de un período alimenticio adverso o con
restricción (Figura 1). Es decir, ante un crecimiento compensatorio estricto, los animales que fueron
sometidos a una restricción en el consumo de nutrientes logran una tasa de ganancia de peso mayor que la
de animales similares que nunca fueron restringidos, cuando éstos tenían su mismo peso.
Desde el punto de vista fisiológico, el proceso puede ser dividido en dos fases, las que Ojeda, Molina y
Carmona (2007) describen del siguiente modo:

186
14. Crecimiento compensatorio en vaquillonas Aberdeen Angus

- Restricción Nutricional. Se restringen en cantidad y/o calidad la ración y, en consecuencia, la


cantidad de energía y proteínas disponibles. Esta disminución de requerimientos energéticos se
realiza durante 2 a 15 semanas.
- Realimentación. Se restituye en cantidad y calidad la ración y se espera un aumento de la tasa de
crecimiento, con mayor disposición de tejido graso/muscular. Se requieren de 70 a 90 días luego de
la fase de restricción para que se adquiera el peso y tamaño normales.

Figura 1: Curva de crecimiento normal, con restricción y compensatorio

Si bien podría pensarse rápidamente que siempre los animales alcanzan el mismo peso a largo plazo,
Bavera et al (2005, p. 2) expresan que:
Los resultados experimentales sobre el crecimiento compensatorio no son concordantes. En
algunos ensayos un período de subnutrición condujo a un efecto permanente el peso y
conformación final, mientras que en otros la capacidad de recuperación fue total y la eficiencia
del uso del alimento en todo el período fue la misma debido a que las ganancias en el período de
buena alimentación fueron más eficientes.
Esta discordancia entre trabajos ocurre porque en un planteo de crecimiento compensatorio,
para que la recuperación sea total, las etapas de restricción y realimentación están sujetas a
distintos factores que, actuando en forma conjunta, condicionan el grado de recuperación de
peso y la composición final del animal.
En tanto, García Romano y Ravera (2014, p. 9) sostienen que: “en sistemas de alimentación a corral, los
animales que sufren una restricción alimentaria moderada durante cortos períodos, compensan esa
restricción con ganancias diarias más elevadas durante la recuperación y mejoran la eficiencia de
conversión en todo el período”.
Aquí nace nuestra situación problema y proponemos la siguiente consigna:
Analizar y estudiar un caso experimental de crecimiento compensatorio en bovinos, con el propósito de
evaluar si existen ventajas en la aplicación de esta técnica. Asimismo, estimar el peso máximo que podrían
alcanzar estos animales y compararlo con el esperado para la raza.
En todos los casos fundamentar la respuesta a través de un estudio matemático propio, en lugar de buscar la
información en Internet o análisis superficial de datos experimentales encontrados.

187
Marcel Pochulu

14.2. Contextualización de la situación problema


Debido a que el éxito del crecimiento compensatorio no siempre se alcanza, Ojeda, Molina y Carmona (2007)
distinguen tres modalidades (Figura 2):
- Compensación completa: Es el caso en el que el animal que ha sido restringido en su alimentación,
alcanza el mismo peso de aquellos que no sufrieron restricción alguna. En este caso, la tasa de
crecimiento postrestricción es muy superior a la que tienen los animales no restringidos y se
adquiere el mismo peso a una edad similar en ambos grupos, manteniéndose la relación entre edad
cronológica y fisiológica.
- Compensación parcial: Se presenta cuando los animales no son capaces de alcanzar el mismo peso
de un animal similar que no fue restringido en su alimentación. Este comportamiento es el más
frecuente y se relaciona con el tipo de alimento que reciben en la fase no restringida, generalmente
compuesto por pastoreos fibrosos con medio o bajo valor nutricional. Asimismo, también está
relacionado con el tiempo que se someten los animales a restricción alimentaria. Algunos estudios
muestran que animales sometidos a largos períodos de restricción muestran resultados levemente
superiores a los que se sometieron a períodos cortos.
- Ninguna compensación: Ocurre cuando los animales mantienen la misma tasa de crecimiento que
exhibieron en la fase de restricción. Es el comportamiento menos común y se lo asocia a la corta
edad en la que los animales se sometieron a restricción. Los estudios muestran que debe evitarse
una restricción nutricional antes de los 3 meses de edad o para un peso inferior a los 100 kg.

Figura 2: Modalidades de crecimiento compensatorio

14.3. Aproximaciones matemáticas al problema


Centrados en la problemática que estuvimos describiendo tenemos el estudio realizado por García Romano y
Ravera (2014), quienes se propusieron evaluar la ganancia de peso y el consumo en 40 vaquillonas
Aberdeen Angus alimentadas a corral, luego de una restricción moderada y de tiempo acotado en el
consumo de alimento. Tomando los aspectos metodológicos de la prueba, los autores explican que:
El ensayo se realizó en el Establecimiento “La Tachuela” ubicado en la localidad de Fortín
Olavarría, Provincia de Buenos Aires. Se contó con 4 corrales, 2 por tratamiento, con 10
animales cada uno. Los tratamientos fueron: T1) los animales se alimentaron ad libitum
(animales no restringidos) y T2) los animales se alimentaron al 70 % del consumo de los no

188
14. Crecimiento compensatorio en vaquillonas Aberdeen Angus

restringidos (animales restringidos), durante un lapso acotado (63 días) y luego recibieron
alimentación ad libitum hasta alcanzar el peso de venta (79 días). Se utilizaron vaquillonas de
raza Aberdeen Angus, con un peso vivo inicial promedio de aproximadamente 200 kg y un peso
de finalización de 330 kg. Se registró el peso inicial y se siguió realizando registros periódicos de
peso hasta la fecha de venta. Los resultados mostraron que no hubo diferencias significativas en
los pesos finales alcanzados por ambos lotes. Durante la recuperación, la ganancia de peso fue
mayor en los restringidos que en los no restringidos y el consumo total de alimento fue 3
kg/animal/día menor en los restringidos durante todo el período bajo estudio. (p. 2)
Con la expresión ad libitum se alude al peso de un animal cuando todavía no se ha impuesto ningún control
sobre su alimentación. Esto es, la frase denota el libre acceso de un animal a agua o alimento, cuando
dejamos que sean las necesidades biológicas de éste las que regulen el consumo. A su vez, la Angus
(Aberdeen Angus) es una raza bovina muy popular en Argentina, puede haber animales negros o colorados y
se la caracteriza por ser productora de carne, reconocida por su precocidad reproductiva, facilidad de parto,
aptitud materna y longevidad (Bavera, 2011).
Los datos experimentales obtenidos del estudio realizado con diferentes lotes de vaquillonas (con
restricciones en la alimentación y ad libitum) por García Romano y Ravera (2014) fueron registrados en
tablas, de las cuales solo consideraremos dos para nuestro caso.
Tabla 1: Evolución del peso de las vaquillonas sin restricción alimentaria43
Peso (kg) Peso (kg) Peso (kg) Peso (kg) Peso (kg) Peso (kg) Peso (kg)
Caravana 24/6 16/7 7/8 26/8 18/9 2/10 13/11
A904 237 251 280 296 321 330 365
E698 219 232 257 267 291 300 334
E705 220 230 248 260 281 287 334
E735 205 216 242 260 293 305 315
E738 210 219 242 254 282 290 337
E721 237 243 261 284 306 313 325
E730 240 257 278 290 310 320 347
K229 205 215 231 245 265 272 350
E736 214 232 260 267 290 300 298
A911 200 207 220 223 251 256 329
Tabla 2: Evolución del peso de las vaquillonas con restricción alimentaria 244
Peso (kg) Peso (kg) Peso (kg) Peso (kg) Peso (kg) Peso (kg) Peso (kg)
Caravana 24/6 16/7 7/8 26/8 18/9 2/10 13/11
A960 234 234 258 270 280 305 338
E758 231 237 252 267 280 302 332
E701 196 202 217 229 241 257 295
E749 228 236 241 263 275 300 330
E722 230 240 258 275 298 321 347
E702 233 233 251 258 276 288 330
E752 230 235 254 269 269 305 345
E720 228 236 251 261 278 300 329
S/C753 187 195 213 223 252 274 299
E718 224 229 245 261 270 294 322
Alimentados en forma restringida Alimentados ad libitum

43 Adaptada de García Romano y Ravera (2014, p.19)


44 Adaptada de García Romano y Ravera (2014, p.18)

189
Marcel Pochulu

A pesar de haber realizado un recorte al trabajo de García Romano y Ravera (2014), la cantidad de datos es
significativa para ser analizada y se requiere tomar algunas decisiones. Por un lado consideraremos como
tiempo inicial el 24/6. Por consiguiente, computaremos los días transcurridos a partir del 24/6. El proceso de
cálculo es sencillo si disponemos de nuevos recursos y recurrimos a una planilla de cálculo, donde por simple
diferencia entre datos se obtiene la cantidad de días de la experiencia (Figura 3). En este caso, por usar la
planilla de cálculo de Microsoft Excel, dejamos fijo el primer dato y para ello, intercalamos el signo $ entre la
columna y el número de fila (A$1).

Figura 3: Cálculo de días transcurridos en la experiencia

La segunda decisión nos lleva a no trabajar con el peso individual de cada animal, sino con el promedio del
lote. Para ello reelaboramos las Tabla 1 y Tabla 2, donde indicamos con 𝐴𝑖 el peso de cada uno de los 10
animales del lote que tuvieron restricción alimentaria y con 𝐴𝑅𝑖 , las que no tuvieron. Cabe destacar que el
trabajo con las tablas de datos, cálculo de tiempos y organización de la información, demanda mucha
atención y esfuerzo por parte de los estudiantes, pues habitualmente están acostumbrados a procesar una
cantidad pequeña de números. En la Tabla 3 organizamos los datos para el lote que no tuvo restricción
alimentaria.

Tabla 3: Evolución del peso de las vaquillonas sin restricción alimentaria

Tiempo AR1 AR2 AR3 AR4 AR5 AR6 AR7 AR8 AR9 AR10 Promedio
(días) (kg) (kg) (kg) (kg) (kg) (kg) (kg) (kg) (kg) (kg) (kg)
0 234 231 196 228 230 233 230 228 187 224 222,1
22 234 237 202 236 240 233 235 236 195 229 227,7
44 258 252 217 241 258 252 254 251 213 245 244,1
63 270 267 229 263 275 258 269 261 223 261 257,6
85 280 280 241 275 298 276 269 278 252 270 271,9
100 305 302 257 300 321 288 305 300 274 294 294,6
142 331 332 284 330 357 319 322 331 321 322 324,9

En la Tabla 4 organizamos los datos para el lote que tuvo restricción alimentario y posteriormente se las
alimentó sin restricción.

190
14. Crecimiento compensatorio en vaquillonas Aberdeen Angus

Tabla 4: Evolución del peso de las vaquillonas con restricción alimentaria

Tiempo A1 A2 A3 A4 A5 A6 A7 A8 A9 A10 Promedio


(días) (kg) (kg) (kg) (kg) (kg) (kg) (kg) (kg) (kg) (kg) (kg)
0 237 219 220 205 210 237 240 205 214 200 218,7
22 251 232 230 216 219 243 257 215 232 207 230,2
44 280 257 248 242 242 261 278 231 260 220 251,9
63 296 267 260 260 254 284 290 245 267 223 264,6
85 321 291 281 293 282 306 310 265 290 251 289
100 330 300 287 305 290 313 320 272 300 256 297,3
142 358 334 310 329 320 339 347 298 332 272 323,9

Culminado el proceso de sistematización de la información será el momento de realizar las representaciones


gráficas apropiadas para el caso y establecer modelos funcionales que describan el proceso. Esta es otra
instancia que demandará mucho tiempo a los alumnos y pondrá en juego todos sus conocimientos
matemáticos. En particular, habrá que tomar las siguientes decisiones:
- Para el crecimiento normal, sin restricciones, se debería ajustar un modelo logístico, en tanto
estamos trabajando con seres vivos, cuyo peso no aumentará sin cota alguna. Por el contrario,
tiende a estabilizarse en el valor máximo esperado para la raza.
- Para el crecimiento con restricción, se podrán ensayar diferentes modelos funcionales, atendiendo a
que describan el fenómeno (el peso aumenta en el período [0, 63]). Asimismo, para poder ajustar un
modelo funcional es necesario conformar la lista de datos para el intervalo considerado.
- Para el crecimiento compensatorio será necesario conformar una lista de datos para el período [63,
142]. A su vez, será necesario tomar decisiones sobre el modelo funcional que ajusta más
apropiadamente. Se espera que en esta etapa el crecimiento tenga el comportamiento de una
sigmoide, dado por la curva logística.
- Se tendrán que ajustar la escala del eje de ordenadas para que puedan apreciarse las diferentes
representaciones gráficas, las cuales tendrán que restringirse sus dominios.
Con estas consideraciones, la representación gráfica debiera ser como en la Figura 4.

Figura 4: Crecimiento normal, con restricción y compensatorio del lote de vaquillonas

191
Marcel Pochulu

Notemos que los coeficientes de determinación obtenidos para cada modelo funcional son adecuados. No
obstante, podríamos haber escogido otros modelos funcionales. Solo a modo de ejemplo, imaginemos que
escogemos modelos polinómicos para ajustar el lote que sufrió restricción alimentaria, tratando de buscar
que el coeficiente de determinación sea igual a 1 (todos los puntos están contenidos en la curva). La
representación gráfica sería la que reporta la Figura 5.

Figura 5: Modelos de ajuste para crecimiento normal, con restricción y compensatorio del lote de vaquillonas

El modelo funcional utilizado para describir el período que tuvo restricción es adecuado (polinómico de grado
3) y no lleva a contradecir el análisis que podríamos hacer con el que reporta la Figura 4 (modelo lineal). Sin
embargo, el modelo funcional para el crecimiento compensatorio (polinómico de grado 3) no describe
adecuadamente el fenómeno, pues no es lógico que el promedio de peso de las 10 vaquillonas haya logrado
un máximo relativo en el intervalo [100,142], pues el análisis individual de los datos no muestra que los
animales perdieron peso al final del tratamiento.
Más allá de los modelos funcionales que podemos escoger para describir los diferentes períodos, no
tenemos que perder de vista el objetivo que perseguimos con el problema, el cual nos lleva a analizar en qué
modalidad de crecimiento compensatorio nos encontramos y si hubo ventajas por aplicar la técnica.
Retomemos el análisis de la gráfica de la Figura 4. Podemos ver claramente que:
- Estamos ante una compensación completa, donde las vaquillonas que fueron restringidas en
alimentación alcanzan aproximadamente el mismo peso de las que no sufrieron restricción alguna.
- La evolución del peso es sostenida durante todo el período en el grupo de los animales no
restringidos.
- Se distinguen claramente los dos períodos, de restricción y realimentación, en los animales
restringidos.
- Las pendientes de las rectas tangentes a las curvas son distintas para el primer período y el
segundo de los animales restringidos, mostrando una mayor tasa de crecimiento postrestricción.
- Las ganancias de peso fueron mayores para el grupo sin restricción, mientras que a partir de los 63
días de tratamiento, se advierte una ganancia de peso diario de los animales que fueron
restringidos por encima de aquellos que fueron alimentados ad libitum durante todo el período.

192
14. Crecimiento compensatorio en vaquillonas Aberdeen Angus

En cuanto al peso máximo estimado, los modelos logísticos pronostican 440 kilogramos en promedio para
ambos lotes. Podríamos pensar que este valor está por debajo del peso adulto que tiene una vaca, el cual se
estima que es de 500 a 600 kilogramos, pero hay que considerar las limitaciones que tiene el modelo
logístico para este caso. Tendríamos que analizar si la serie de datos reporta valores característicos de esta
curva: momento inicial, puntos en los que hay rápido crecimiento y posteriormente, valores que muestran que
disminuye la tasa de crecimiento.
14.4. Perspectivas de trabajo matemático con el problema
Sabemos que dentro de la estructura de costos de un feedlot o engorde a corral, el alimento es el costo más
importante (Lobbosco, 2003). García Romano y Ravera (2014, p. 26) analizan el consumo acumulado de
alimento a lo largo del estudio que llevaron a cabo y relatan que “los animales no restringidos en su
alimentación consumieron un total de 2427 Kg, por animal, mientras que el consumo total de los restringidos
fue de 1940 Kg, por animal”. Teniendo en cuenta estos datos se podría hacer un análisis de la ganancia
obtenida en la venta de las vaquillonas pertenecientes a cada uno de los lotes y establecer qué sistema de
alimentación resultaría más rentable para este caso. A su vez, la actividad requeriría especificar las
restricciones tomadas para fundamentar la respuesta, en tanto que no hay datos para realizar la venta de
vaquillonas ni de los insumos utilizados para la cría de las mismas.
Por otro lado, García Romano y Ravera (2014) expresan que es de relativa importancia establecer el
consumo en kilogramos de materia seca para poder establecer el índice de conversión alimenticia. En el
estudio que llevaron a cabo, establecieron que el porcentaje de materia seca de la ración suministrada a las
vaquillonas fue del 77%, el cual surge de la ponderación porcentual de cada componente por sus contenidos
de materia seca (89% para el grano de maíz y el núcleo vitamínico mineral y del 40% para el silaje de maíz).
Teniendo en cuenta estos datos, el problema se puede seguir profundizando y conlleva a calcular el índice de
conversión alimenticia para los dos lotes de vaquillonas. Asimismo, se podrían comparar índices alcanzados
con otros estudios del mismo tipo. Por ejemplo, el estudio realizado por Torres, Seguí y Sánchez (2016) con
20 novillos (293,1 ± 29,9 kg peso vivo) y 20 vaquillonas (276,2 ± 19,8 kg peso vivo) de la raza Aberdeen
Angus, de la misma edad, destetados al mismo tiempo, recriados sobre los mismos verdeos y alimentados
durante 80 días con la misma dieta (a base de grano de maíz entero y concentrado comercial), lograron
índices de conversión alimenticia del 6,8 para los novillos y 7,4 para las vaquillonas. Estos datos permitirían
la comparación con los obtenidos por García Romano y Ravera (2014) y con los estándares establecidos
para esta raza. Para este último caso se puede consultar el trabajo de Lobbosco (2003).
Por último, el problema abre como perspectiva de trabajo la realización de estudios semejantes al
presentado, pero a elección de los estudiantes. Se encuentran innumerables trabajos que reportan estudios
de crecimiento compensatorio en otras razas de bovinos, como así también en peces, ovinos, etc.
14.5. Referencias bibliográficas
Bavera, G. (2011). Razas Bovinas y fufalinas de la Argentina. Río Cuarto: Facultad de Agronomía y
Veterinaria de la Universidad Nacional de Río Cuarto.
Bavera, G., Bocco, O., Beguet, H. y Petryna, A. (2005). Crecimiento y desarrollo compensatorio. Río Cuarto:
Facultad de Agronomía y Veterinaria de la Universidad Nacional de Río Cuarto.
Clifton, G.; Cabana, J.; Manero, A. y Barahona, M. (2001). Engorde de terneros a corral. Río Gallegos,
Argentina. INTA EEA.
García Romano, E. y Ravera, A. (2014). Restricción alimenticia y aumento de peso compensatorio en
vaquillonas en encierre a corral. Trabajo final de grado no publicado, Facultad de Agronomía,
Universidad Nacional de La Pampa. Santa Rosa, La Pampa, Argentina.
Laporta Pomi, R., León, S. y Melnik, C. (2011). Costos de feedlot. En R. Tezza y D. Spenassato (Edts.),
Anais XVIII Congresso Brasileiro de Custos, (pp. 1-14). Rio de Janeiro, Brasil: Universidade Candido
Mendes.
Lobbosco, F. (2003). El engorde a corral para la producción de carne en la Provincia de Buenos Aires: Un
análisis económico (tesis de grado). Facultad de Ciencias Económicas y Sociales, Universidad
Nacional de Mar del Plata. Mar del Plata, Buenos Aires, Argentina.

193
Marcel Pochulu

Ojeda, A.; Molina, F. y Carmona, D. (2007). Crecimiento compensatorio: Una estrategia de manejor de la
disponibilidad de pasturas. En R. Tejos, C. Zambrano, W. García, C.
Tobía, L. Mancilla, N. Valbuena y F. Ramírez (Edts.), Actas del XI Seminario Manejo y Utilización de
Pastos y Forrajes en Sistemas de Producción Animal (pp. 41-50). Lara, Venezuela: Universidad
Centrooccidental Lisandro Alvarado.
Pitluk, H. (2010). Feed lot: ¿solución o problema? Biodiversidad en América Latina. Disponible en:
http://www.biodiversidadla.org/Portada_Principal/Documentos/Feed_lot_solucion_o_problema
Torres, J.; Seguí, R. y Sánchez, F. (2016). Comparación de datos productivos entre novillos y vaquillonas
Aberdeen Angus en feedlot (tesis de grado). Facultad de Ciencias Veterinarias de la Universidad del
centro de la Provincia de Buenos Aires. Tandil, Argentina.

194
15. Degradación de las aguas residuales mediante procesos biológicos

15
Degradación de las aguas residuales
mediante procesos biológicos

Marcel Pochulu y Silvia Moyano


15.1. Introducción
A pesar de que el agua es un recurso indispensable para los seres vivos y los humanos, las diversas
actividades que llevamos a cabo conllevan a modificar su composición. En particular, cuando la modificación
se realiza sobre el agua que proviene del sistema de abastecimiento de una población, hablamos de aguas
residuales. Por lo tanto, las aguas residuales resultan de la combinación de líquidos y residuos sólidos
transportados por el agua que proviene de residencias, oficinas, edificios comerciales e instituciones, junto
con los residuos de las industrias y de actividades agrícolas, así como de las aguas subterráneas,
superficiales o de precipitación que también pueden agregarse eventualmente al agua residual.
Estas aguas residuales deben ser tratadas mediante una serie de procesos físicos, químicos y biológicos que
tienen como fin eliminar los contaminantes físicos, químicos y biológicos presentes en ellas. El objetivo del
tratamiento, llamado comúnmente de depuración de aguas residuales, es producir agua limpia reutilizable en
el ambiente y un residuo sólido o fango conveniente para su disposición o reúso. Pero ¿Cómo se logra la
depuración de estas aguas residuales? ¿Cuánto tiempo demanda este proceso y cómo se mide su
eficiencia? ¿Cuál es la velocidad de degradación? ¿Cuál es la relación costo-beneficio de los tratamientos
que se emplean?
Existen diferentes caracterizaciones sobre tipos de tratamientos de efluentes o aguas residuales. Tomaremos
una en particular, propuesta por Ramalho (1996), quien los clasifica en:
Tratamiento primario. Implica alguno o varios de los siguientes procesos: cribado o desbrozo,
sedimentación, flotación, separación de aceites, homogeneización, neutralización.
Tratamiento secundario. Implica alguno o varios de los siguientes procesos: lodos activos, aireación
prolongada, estabilización por contacto, otras modificaciones del sistema convencional de lodos activos
(aireación por fases, mezcla completa, aireación descendente, alta carga, aireación con oxígeno puro),
lagunaje con aireación, estabilización por lagunaje, filtros biológicos, discos biológicos, o tratamientos
anaerobios.

195
Marcel Pochulu y Silvia Moyano

Tratamiento terciario o “avanzado”. Implica alguno o varios de los siguientes procesos: microtamizado,
filtración (lecho de arena, antracita, diatomeas), adsorción (carbón activado), intercambio iónico, osmosis
inversa, electrodiálisis, cloración y ozonización, o proceso de reducción de nutrientes.
Nuestra intención es intentar comprender, desde el punto de vista biológico y matemático, algunas
cuestiones que acontecen en un proceso de depuración de aguas residuales durante un tratamiento
secundario. Para ello, proponemos la siguiente consigna de trabajo, la cual conlleva a una delimitación del
cuestionamiento:
Una industria láctea tiene efluentes constituidos básicamente por suero de leche, finos de queso y agua de
limpieza proveniente de la quesería. Decide tratar los efluentes o aguas residuales utilizando cepas de
Bacillus inoculadas en un lodo activado para degradar altas concentraciones de sustratos tales como aceites,
grasas, proteínas, almidones y carbohidratos.
Determinar y fundamentar cuál sería una velocidad de degradación que logran tener habitualmente los
efluentes usando lodos activados, y cuánto tiempo se requiere para que la Demanda Química de Oxígeno
(DQO) alcance un límite normal para que sean arrojados al cauce de un río.
Intentaremos, en primer lugar, relatar lo que está detrás de estos procesos biológicos para pasar, luego, a
matematizar la situación.
15.2. Contextualización de la situación problema
15.2.1. La toxicidad y contaminación de las aguas residuales
Un parámetro que permite determinar el grado de toxicidad de las aguas residuales (también llamadas
efluentes) es la Demanda Química de Oxígeno (DQO), la cual mide la cantidad de oxígeno necesaria para
oxidar toda la materia orgánica y oxidable presente en ellas. Para esto, se utiliza un agente químico
altamente oxidante en un medio ácido para determinar el equivalente de oxígeno de la materia orgánica que
puede oxidarse. La DQO se expresa en miligramos de oxígeno diatómico por litro (𝑚𝑔𝑂2 /𝐿) y, en cierta
forma, también es una medida representativa de la contaminación orgánica de un efluente.
Otro parámetro importante a tener en cuenta en el tratamiento de efluentes es la Demanda Biológica de
Oxígeno (DBO), que permite determinar la cantidad de oxígeno que necesitan los microrganismos para
degradar la materia orgánica biodegradable existente en las aguas residuales. Esto es, la DBO es una
medida de la contaminación de las aguas por materia orgánica, que sirve como nutriente y requiere oxígeno
para su descomposición, y determina la rapidez con que la materia orgánica nutritiva consume oxígeno por la
descomposición bacteriana.
En consecuencia, podemos decir que la DBO representa la cantidad de materia orgánica biodegradable,
mientras que la DQO representa tanto la materia orgánica biodegradable como la no biodegradable. En
ambas situaciones, el consumo de oxígeno es provocado mayormente por sustancias orgánicas que no han
sido totalmente degradadas por el sistema de tratamiento de los efluentes. Las legislaciones vigentes exigen
cada vez valores más bajos de estos parámetros a fin de conservar los cuerpos receptores de agua y su vida
acuática. A su vez, debe tenerse en cuenta que mientras las aguas residuales presentan impurezas
minerales y orgánicas, cuya naturaleza y concentración se pueden considerar similares de una ciudad a otra
y por tal razón los tratamientos son análogos, los efluentes industriales necesitan una investigación propia,
debido a su gran diversidad, lo que requiere de procesos de tratamiento específicos.
Controlar ambos parámetros nos asegura una buena calidad de los vertidos45, al mismo tiempo que se
minimiza su impacto sobre el medio ambiente. Para reducir la DBO de un vertido lo más adecuado son los
procesos biológicos, dentro de los cuales nos encontramos con distintas alternativas. El tratamiento primario
contempla el uso de operaciones físicas tales como la sedimentación para la eliminación de los sólidos
sedimentables y flotantes. El tratamiento secundario son procesos biológicos químicos que se emplean para
eliminar la mayor parte de la materia orgánica. En el tratamiento terciario se emplean combinaciones de los
procesos y operaciones unitarias para eliminar otros componentes, tales como el nitrógeno y el fósforo. Entre
los procesos biológicos tenemos:

45 Se denominan vertidos a cualquier disposición de aguas residuales en un cauce o masa de agua, o en un terreno.

196
15. Degradación de las aguas residuales mediante procesos biológicos

• Procesos anaerobios, caracterizados así porque la degradación de sustancias orgánicas tiene lugar
en ausencia total de oxígeno. Los microorganismos anaerobios emplean las sustancias orgánicas
como fuente de alimento, logrando su degradación, y se obtienen gases que pueden ser
aprovechados para uso energético como el metano; y
• Procesos aerobios, caracterizados así porque la descomposición de la materia orgánica se llevará a
cabo en una masa de agua que contiene oxígeno disuelto. El substrato suministra la fuente de
alimento a los microorganismos y se transforma –en condiciones aerobias- en biomasa, dióxido de
carbono y agua. Podemos tener procesos aeróbicos estrictos, cuando solamente pueden funcionar
si hay oxígeno, y los procesos aeróbicos facultativos, que son los que pueden alternar con
anaeróbicos, de acuerdo a la concentración de 𝑂2 disponible.
Así, los procesos biológicos permiten eliminar de las aguas residuales las sustancias biodegradables
disueltas (substrato) y la materia orgánica es descompuesta por la acción de la luz solar, el oxígeno disuelto
en el agua y por la actividad de las bacterias y hongos descomponedores.
Actualmente existe en el mercado un gran número de mezclas comerciales de microrganismos que son
seleccionados y adaptados para degradar los compuestos orgánicos que están presentes en una gran
variedad de aguas residuales. Entre estos microrganismos, se encuentran las bacterias del género Bacillus,
que son bacilos que pueden ser aerobios estrictos o anaerobios facultativos.
15.2.2. Bacterias, Bacilos y Bacillus
Las bacterias se diferencian por muchos factores, entre los que se cuentan la morfología, la composición
química (a menudo detectada por reacciones de tinción), los requerimientos nutricionales y las actividades
bioquímicas. En cuanto a la morfología (Figura 1), las bacterias pueden presentar las siguientes
características: la esférica o de coco (que significa “baya”), la de bastoncillo o bacilo, la espiral (espirilo,
spirilum o spirilla), las que tienen forma de coma (vibrios), entre otras. Nuestro interés se encuentra
particularmente en los bacilos.

Figura 1: Morfología de las bacterias (Marsh, 2007, p. 1)

197
Marcel Pochulu y Silvia Moyano

Los bacilos se encuentran en diferentes ambientes y solo se pueden observar con un microscopio. Si bien se
utilizan criterios ecofisiológicos para agrupar diferentes especies, en lugar de taxones46 filogenéticos de difícil
diferenciación, se pueden dividir en Gram positivos o Gram negativos, de acuerdo al color que se tiñen en la
tinción de Gram47.
Los Bacilos Gram positivos se tiñen de azul oscuro o violeta, y de allí deriva su nombre de Gram-positivos,
grampositivos o también BGP. Esta característica química está íntimamente ligada a la estructura de
la envoltura celular y por tal razón, reflejan un tipo natural de organización bacteriana. Cuando se tratan
como taxón se utiliza también el nombre de Posibacteria.
Los Bacilos Gram negativos, en tanto, no fijan el violeta y se tiñen de un color rosado tenue, por lo cual
reciben del nombre de Gram-negativos, gramnegativos o también BGN. Cuando se tratan como taxón se
utiliza también el nombre de Negibacteria.
En bacteriología la identificación a nivel de especie de las bacterias aisladas de muestras de suelo,
alimentos, de origen animal y vegetal se hace no solo con la identificación microscópica (lo que determina
cómo se comporta a través de la tinción de Gram y de la morfología observada), sino que es necesario
determinar su comportamiento en distintos medios de cultivo y su metabolismo frente a distintos azúcares,
aminoácidos y otros compuestos orgánicos, lo que se denomina pruebas bioquímicas. Estas permiten la
identificación final de especie de las bacterias aisladas mediante el subcultivo del aislamiento primario en una
serie de medios de cultivo diferenciales, cuyo resultado pueden interpretarse después de un día o más de
incubación adicional.
El Bacillus es un género que hoy en día incluye más de 60 especies de bacilos, son de gran tamaño (entre 4
a 10 𝜇𝑚), grampositivos, aerobios estrictos o anaerobios facultativos encapsulados. Están ampliamente
distribuidos en la naturaleza, comúnmente en la rizósfera48 de diversos cultivos, donde tienen un papel
importante en el ciclo del carbono y el nitrógeno. Son habitantes comunes de aguas frescas y estancadas,
particularmente activos en sedimentos y suelen ser contaminantes del laboratorio. Una característica
importante es que forman esporas extraordinariamente resistentes en condiciones desfavorables. Entre las
especies más representativas del genero Bacillus, se encuentran B alkalophilus, B anthracis, B azotoformans,
B brevis, B cereus, B subtillis, B coagulans, B firmus, B insolitus, B lincheniformis, B polimyxa y B turingiensis,
entre otros (Cuervo, 2010).
Aunque la mayoría de las especies de Bacillus son inocuas, algunas resultan patógenas para las personas y
los animales. Así, por ejemplo, el Bacillus cereus causa una intoxicación alimentaria por envenenamiento
similar a la estafilocócica49. Algunas cepas producen una toxina termoestable en los alimentos que se asocia
con la germinación de esporas generando vómitos en un plazo de 1 a 5 horas tras la ingestión, en un proceso
que dura 24 horas. El arroz y otros vegetales son los principales vehículos de transmisión. Otras cepas
producen una enterotoxina50 termolábil51 tras la ingestión, que produce diarrea y dolor abdominal en un
período de incubación que va de 8 a 16 horas. Suele encontrarse en carnes y productos derivados del pollo,
sopas deshidratadas, embutidos, especias, en los productos derivados de la vainilla, cereales, harinas, clara
de huevo deshidratada, y cóctel de durazno y piña.

46 Especímenes o ejemplares concretos.


47 Procedimiento empleado en microbiología para la visualización de bacterias.
48 Es una parte del suelo inmediata a las raíces donde tiene lugar una interacción dinámica con los microorganismos. Las
características químicas y biológicas de la rizósfera se manifiestan en una porción de apenas 1 mm de espesor a partir de las raíces,
donde se dan toda una serie de relaciones físicas y químicas que afectan a la estructura del suelo y a los organismos que viven en él,
proporcionándole unas propiedades diferentes.
49 La infección estafilocócica es un tipo de bacteria que frecuentemente causa infecciones de la piel. Esta bacteria vive en la piel y
también se esconde en la nariz o en la matriz de la uña. Generalmente no causa infección, a menos que la infección entre al cuerpo a
través de una lesión o por una vena.
50 Las enterotoxinas son el producto del metabolismo de ciertas cepas de células o bacilos que posee un grado de tóxico para el
organismo humano. Las enterotoxinas son proteínas de cadena simple no ramificada, generalmente compuestas por cantidades
relativamente grandes de lisina, tirosina, ácido glutánico y ácido aspártico.
51 Sustancia que se descompone o se desnaturaliza por el calor, perdiendo generalmente su actividad.

198
15. Degradación de las aguas residuales mediante procesos biológicos

El Bacillus anthracis produce carbunco o ántrax en personas52 y fundamentalmente en animales herbívoros


(en particular ovinos y bovinos), fue el responsable de las primeras infecciones bacterianas para las cuales
se estableció definitivamente la causa, dando lugar al desarrollo de la primera vacuna bacteriana por Louis
Pasteur (Macedo y Vola, 2003).
Ahora bien, si se tiene certeza del género, pero no de la especie a la que se está haciendo referencia para un
ser vivo, se indica el género seguido de la abreviatura “sp.” (del latín specimen), cuando se trata de una
especie o “spp.”, si se sabe que hay más de una especie. Por ejemplo, si el aislamiento bacteriano de un
medio de cultivo general53 a la observación microscópica resultan ser Bacilos Gram positivos que presentan
esporas54, podemos determinar que estamos frente a bacterias que pertenecen al género Bacillus, pero como
no se realizaron las pruebas bioquímicas correspondientes, no podemos clasificarlo dentro de las especies
que integran dicho género. En este caso clasificaremos estos aislamientos como Bacillus spp, y ésta es una
manera muy común de nombrarlos en la bibliografía científica de Biología.
Asimismo, la presencia de Bacillus spp es frecuente en una gran variedad de ambientes naturales, como el
agua y el suelo. Forman parte de las bacterias fácilmente detectables en la mayoría de las aguas de
consumo. Las infecciones por Bacillus spp se asocian con el consumo de diversos alimentos, especialmente
arroz, pastas y hortalizas, pero también leche cruda y productos cárnicos. La enfermedad puede producirse
como consecuencia de la ingestión de los microorganismos o de las toxinas producidas por éstos. No se ha
determinado que el agua de consumo sea un foco de infección por especies patógenas de Bacillus, incluido
Bacillus cereus, y tampoco se ha confirmado la transmisión por el agua de gastroenteritis por Bacillus.
No obstante, el Bacillus spp se detecta con frecuencia en aguas de consumo, incluso en las que han sido
tratadas y desinfectadas mediante procedimientos aceptables (principalmente debido a la resistencia de las
esporas a los procesos de desinfección), pero al no haber indicios de que tengan repercusiones clínicas, no
se requieren estrategias de gestión específicas.
15.3. Aproximaciones matemáticas al problema
Para abordar el problema que propusimos inicialmente es necesario recurrir a información afín al tema. El
problema no tiene datos específicos o relevantes, como la cantidad de efluentes que se arroja diariamente o
el grado de contaminación inicial. No obstante, intentaremos hacer un acercamiento inicial estudiando un
caso particular.
La presencia del género Bacillus, especialmente seleccionados y aceptados por la industria biotecnológica,
es utilizada para degradar los compuestos orgánicos presentes en una gran variedad de aguas residuales,
pues favorece la reducción de la DBO en los tratamientos industriales. Estos productos biotecnológicos
logran complementar la biomasa presente en los efluentes en tratamiento, logrando hacer frente a
concentraciones altas de sustratos tales como aceites, grasas, proteínas, almidones y carbohidratos.
En Moyano, Peralta, Cruciani, Otero y Marín (2009) se analiza la degradación de un efluente lácteo utilizando
un microorganismo del género Bacillus spp. aislado de un lodo activado. Para la experiencia de degradación,
se trabajó con un efluente constituido básicamente por suero de leche, finos de quesos y agua de limpieza
proveniente de una quesería. Se utilizó un reactor de 4 litros de capacidad con inyección de aire permanente,
para mantener la solución saturada en oxígeno y con agitación, para favorecer la mezcla durante la
experiencia. Además, se colocaron en el reactor 2 litros de efluentes y 180 ml de una suspensión de Bacillus
spp., la cual se obtuvo de un medio constituído por 20 gramos de melaza en 1000 ml de agua destilada,
esterilizado a 120° C durante 15 minutos a 1 atm.

52 El hombre la adquiere en forma accidental y básicamente como una enfermedad laboral. Se puede adquirir en el contexto agrícola
como una infección cutánea local, en el contexto industrial (manipuladores de cuero y pelo de animal) o como una neumonía (poco
frecuente).
53 Es aquel medio de cultivo que posee los nutrientes necesarios para el desarrollo de la mayoría de las bacterias, como por ejemplo
el Agar Nutritivo o Agar recuento en placa.
54Son formas de resistencia que desarrollan algunas bacterias (por ejemplo, las del género Bacillus) para sobrevivir a condiciones
ambientales adversas, como temperaturas muy elevadas, desecación, falta de nutrientes, etc.

199
Marcel Pochulu y Silvia Moyano

El tratamiento, a una temperatura cercana a los 25°C, se extendió por 7 días con un muestreo periódico para el
cálculo de la DQO, la cual se determinó tanto en el efluente original como en la mezcla de éste con el cultivo en
medio de melaza de la cepa Bacillus spp. Los resultados obtenidos se contemplan en la siguiente tabla:
Tabla 1: Valores de DQO del efluente lácteo en estudio (inoculado con Bacillus spp.) a lo largo del tratamiento
Tiempo DQO Tiempo DQO
Muestra Muestra
[días] [mgO2 /L] [días] [mgO2 /L]
1 0 5564 7 1.97 2562
2 0.20 5367 8 2.26 1410
3 0.36 4926 9 2.38 1300
4 0.97 3752 10 4.99 540
5 1.21 3180 11 6 440
6 1.40 2770 12 7 430
Retomemos la pregunta del problema: ¿Cuánto tiempo se requiere tratar a los efluentes para que la DQO
alcance un límite normal y puedan ser arrojados al cauce de un río? El camino que seguiremos intentará
emular al que posiblemente realizaría un alumno, rescatando la riqueza matemática que existe en cada
acercamiento. En un primer momento, buscaremos relacionar las variables que están en juego para,
finalmente, esbozar una respuesta posible al problema y tratar de validarla.
Sabemos que la DQO mide la cantidad de oxígeno necesaria para oxidar toda la materia orgánica y oxidable
presente en el efluente. Cuanto mayor sea la DQO, mayor es la cantidad de materia orgánica y oxidable en el
efluente, mientras que valores más bajos de la DQO nos expresan que es menor la cantidad de materia
orgánica y oxidable que resta degradar. En consecuencia, hablar de velocidad de degradación nos lleva a
determinar qué tan rápido disminuye la DQO en función del tiempo.
̅̅̅̅). Esto es:
Podríamos hacer un análisis del registro tabular, calculando la Velocidad de Degradación Media (𝑉𝐷
∆ 𝐷𝑄𝑂
̅̅̅̅ =
𝑉𝐷
∆𝑡
̅̅̅̅ la
Donde ∆𝐷𝑄𝑂 denota la variación de la DQO (en 𝑚𝑔𝑂2 /𝐿), ∆𝑡 la variación de tiempo en días, y 𝑉𝐷
Velocidad de Degradación Media, que viene expresada en 𝑚𝑔𝑂2 /(𝐿. 𝑑í𝑎𝑠).
̅̅̅̅, resulta:
Valiéndonos de una planilla de cálculo para estimar los valores de la 𝑉𝐷

Tabla 2: Cálculo de Velocidad de Degradación Media del efluente


Tiempo DQO ̅̅̅̅
𝐕𝐃
[días] 𝒎𝒈𝑶𝟐 /𝑳 𝐦𝐠𝐎𝟐 /(𝐋. 𝐝í𝐚𝐬)
0,00 5564
0,20 5367 -985.00
0,36 4926 -2756.25
0,97 3752 -1924.59
1,21 3180 -2383.33
1,40 2770 -2157.89
1,97 2562 -364.91
2,26 1410 -3972.41
2,38 1300 -916.67
4,99 540 -291.19
6,00 440 -99.01
7,00 430 -10.00

200
15. Degradación de las aguas residuales mediante procesos biológicos

La tabla no nos arroja demasiada información, aunque amerita algunas interpretaciones importantes. Los
valores negativos que obtenemos de la Velocidad de Degradación Media están indicando que la DQO
decrece a medida que pasan los días. Si buscamos hallar en qué momento es mayor la velocidad media de
degradación, tendremos que considerar el valor absoluto de la misma y no aporta información relevante decir
que ocurre en el intervalo [1.97 , 2.26] días.
Cuando la matemática se usa como herramienta en otras ciencias, y principalmente para analizar algún
proceso o fenómeno, lo que interesa es la construcción de un modelo matemático. Hacer un modelo
matemático es intentar interpretar lo mejor posible la realidad, expresando relaciones, proposiciones
sustantivas de hechos, variables, parámetros u operaciones, para estudiar comportamientos de sistemas
complejos ante situaciones difíciles de observar. Si nos quedamos solo con una tabla de valores, no
logramos este cometido. En consecuencia, debemos avanzar con el análisis.
Imaginemos ahora que queremos realizar una gráfica con los valores obtenidos para la Velocidad de
Degradación Media del efluente en función del Tiempo.

Figura 2: Representación gráfica de la Velocidad Media de Degradación en función del Tiempo

Nuevamente, el registro gráfico no aporta mayor comprensión a lo que está ocurriendo, ni permite describirlo
adecuadamente. Solo podemos observar que la Velocidad de Degradación Media, en valor absoluto, fue
mayor durante el primer día y disminuye a medida que pasa el Tiempo.
Busquemos ahora hallar un modelo de ajuste para las variables: DQO y tiempo, con la intención de obtener,
posteriormente, una expresión para la Velocidad de Degradación Media del efluente. Sabemos que los
valores medidos en el mundo real no se ajustan de forma perfecta a un modelo, debido a que están
presentes los errores de medición y, además, porque todo modelo matemático es una simplificación del
mundo real. Si tuviéramos en cuenta todos los factores que influyen en un conjunto de variables, sería
inmanejable la situación y sumamente complejo hallar un modelo que describa el fenómeno. Por tanto, no
tiene sentido aspirar a encontrar un modelo que prediga exactamente los valores medidos, y debemos admitir
que el modelo cometerá un cierto error.
Para hallar un modelo que describa el comportamiento de estas dos variables, nos valemos de un software
adecuado y que sea de nuestro agrado. En nuestro caso hemos optado por GeoGebra. Graficamos la nube
de puntos, considerando como variable independiente al tiempo y como variable dependiente a la DQO.

201
Marcel Pochulu y Silvia Moyano

Figura 3: Representación gráfica de la DQO en función del Tiempo

La nube de puntos nos da idea de un comportamiento exponencial. Si realizamos ese ajuste, tendremos:

Figura 4: Ajuste exponencial para describir la relación entre DQO y Tiempo

El ajuste no resulta ser inadecuado, no solo porque el coeficiente de determinación es cercano a uno, sino
también porque describe el comportamiento global de las dos variables. No obstante, podemos realizar algún
otro ajuste y comparar. Consideremos, por ejemplo, un ajuste polinómico de grado 2.

202
15. Degradación de las aguas residuales mediante procesos biológicos

Figura 5: Ajuste polinómico de grado 2 para describir la relación entre DQO y Tiempo
Si solo tuviéramos en cuenta el coeficiente de determinación, diríamos que el ajuste polinómico de grado dos
resulta ser mejor que el ajuste exponencial para describir el comportamiento de las dos variables (DQO y
tiempo), pero cabe preguntarse: ¿describe mejor la relación entre ambas variables? Analicemos qué
información nos arroja esta función.
Si observamos la gráfica del polinomio de grado dos (Figura 5), advertimos que la misma presenta un mínimo
para valores cercanos para 𝑡 = 5 𝑑í𝑎𝑠. A partir de allí, la función comienza a crecer. Este comportamiento
no es el que estaría reflejando la tabla de valores de la experiencia (ver Tabla N° 1), donde se muestra un
decrecimiento sostenido para los valores de la DQO a medida que transcurre el tiempo. Si tuviéramos que
escoger entre ambos modelos (el exponencial o polinómico de grado dos), indudablemente resulta más
óptimo el ajuste a través de una función exponencial. De todos modos, sigamos analizando otros modelos
posibles. Consideremos en este caso un modelo polinómico de grado 3 (Figura 6).

Figura 6: Ajuste polinómico de grado 3 para describir la relación entre DQO y Tiempo

203
Marcel Pochulu y Silvia Moyano

En este caso, el coeficiente de determinación es muy cercano a 1 y la gráfica describe bastante bien el
comportamiento que tuvo la variable DQO a medida que transcurre el tiempo. Esta conclusión guarda
correspondencia con lo expresado en las conclusiones por Moyano et al (2008, p. 5), cuando expresan:
La velocidad de degradación en esta experiencia puede inferirse de una función polinómica de
tercer orden con un coeficiente de correlación 0,98626. Se observa un reducción de la DQO en
el tiempo, explicada adecuadamente por una función lineal durante los primeros 2.5 días,
equivalente a 1700 mgO2/L/día. Al cabo de ese tiempo la disminución alcanzó un valor de 77%
expresada en términos de la DQO inicial.
Avancemos un poco más en el análisis con modelos, y pensemos ahora en un ajuste polinómico de grado 4.
Otra vez estamos frente a un caso donde el coeficiente de determinación es mejor al de una función
polinómica de grado 3. Sin embargo, podemos advertir que no refleja el comportamiento que ha tenido la
variable DQO a medida que pasa el tiempo, puesto que para el intervalo [4; 6] se advierte un leve ascenso,
y sería nulo para un valor aproximado de 𝑡 = 7.5 𝑑í𝑎𝑠 (Figura 7).

Figura 7: Ajuste polinómico de grado 4 para describir la relación entre DQO y Tiempo

Figura 8: Ajuste polinómico de grado 5 para describir la relación entre DQO y Tiempo

204
15. Degradación de las aguas residuales mediante procesos biológicos

Podríamos estar tentados en seguir mejorando el coeficiente de determinación (Figura 8) y simultáneamente,


pretender que la función describa mejor la relación entre la DQO y el tiempo. Esto no ocurre necesariamente,
y la posibilidad de experimentar con un software nos lleva a descartarlo rápidamente. Consideremos, por
ejemplo, un ajuste polinómico de grado 7 (Figura 9), donde se puede advertir que hay más puntos que
parecerían pertenecer a la curva, pero no es adecuado el modo en que la misma describe el comportamiento
de la DQO a medida que avanza el tiempo. Situación análoga acontece para modelos polinómicos de grado
mayor a 7.

Figura 9: Ajuste polinómico de grado 7 para describir la relación entre DQO y Tiempo

No perdamos de vista nuestro objetivo, que era hallar un modelo que permitiera describir la Velocidad de
Degradación del efluente. Si analizamos el trayecto recorrido, hemos logrado sustituir una tabla de valores
por un modelo funcional que describe la relación entre las variables que intervienen (DQO y tiempo).
15.3.1. La velocidad de degradación media de un efluente inoculado con Bacillus
Podemos partir de los modelos que encontramos para describir la relación entre la DQO y el tiempo para
deducir, a partir de los mismos, la Velocidad de Degradación Media del efluente. Para este caso,
consideremos los tres modelos funcionales que parecían describir acertadamente la relación entre DQO y
tiempo (el modelo exponencial, el polinómico de grado 3 y el polinómico de grado 5).
Notemos que no se requiere conocer sobre el tema derivadas para realizar estos cálculos, sino más bien
hallar una aproximación a los valores de la Velocidad de Degradación del efluente, considerando la Velocidad
̅̅̅̅) para un intervalo “pequeño” de tiempo.
de Degradación Media (𝑉𝐷
Estas ideas intuitivas ayudan notablemente, en una etapa posterior, a comprender conceptos que devienen
de la derivada de una función.
Sea pues ∆𝑡 = 0.001 día (1.44 minutos, si queremos ser más precisos) y calculemos la ̅̅̅̅
𝑉𝐷 como
𝑓(𝑡𝑖 +∆𝑡)−𝑓(𝑡𝑖 )
, lo cual se refleja en la siguiente tabla:
∆𝑡

205
Marcel Pochulu y Silvia Moyano

̅̅̅̅ del efluente a través de modelos matemáticos previamente construidos


Tabla 3: Cálculo de 𝑉𝐷
Modelo Modelo Polinómico Modelo Polinómico
Tiempo exponencial de grado 3 de grado 5
[días] ̅̅̅̅
VD ̅̅̅̅
VD ̅̅̅̅
VD
mgO2 /(L. días) mgO2 /(L. días) mgO2 /(L. días)
0 –2.006.34 –3.643.06 –1.683.29
1 –1.342.54 –1.852.78 –1.971.18
2 –898.35 –1.199.86 –1.400.10
3 –601.13 –684.30 –657.93
4 –402.24 –306.11 –151.99
5 –269.16 –65.28 –9.06
6 –180.11 38.19 –75.36
7 –120.52 4.29 83.43

Pasemos del registro tabular a un registro gráfico y realicemos un ajuste para cada uno de estos conjuntos
de datos. El primer ajuste (Figura 10) corresponde a los valores de Velocidad de Degradación Media que se
calcularon por medio del ajuste exponencial que hicimos para relacionar la DQO con el tiempo. El modelo de
ajuste que consideramos más apropiado también resulta exponencial: 𝑉𝐷 ̅̅̅̅ ≅ −2006.344 ∙ 𝑒 −0.4018𝑡 .
Notemos que estamos obteniendo un modelo aproximado de ajuste, pues no necesariamente interpola el
conjunto de nodos del cual partimos.

̅̅̅̅ del efluente


Figura 10: Ajuste exponencial para la 𝑉𝐷

̅̅̅̅(1), obtenemos aproximadamente −1342.474, cuando debiera


Es suficiente notar que si calculamos 𝑉𝐷
darnos −1342.54. Además, el conjunto de nodos también es una aproximación que hemos obtenido
redondeando resultados (en este caso a 2 decimales). No obstante, nuestra preocupación no radica en hallar

206
15. Degradación de las aguas residuales mediante procesos biológicos

valores exactos, pues resulta prácticamente imposible cuando hablamos de procesos y fenómenos que
ocurren en la realidad, pero sí vale la pena reflexionar que estamos trabajando con aproximaciones y
debemos tener cierta tolerancia a los errores.
Por otra parte, el análisis de la gráfica o de la tabla misma encierra mucha riqueza matemática que no
podríamos dejar pasar de largo. En particular, cabe preguntarse: ¿qué interpretación le damos a una
“velocidad negativa” en este contexto? La 𝑉𝐷 ̅̅̅̅, ¿ha sido mayor para 𝑡 = 1 o para 𝑡 = 5 días? Es de
destacar que en este contexto una velocidad negativa tiene una interpretación diferente a la que pensamos
en otras ciencias, como en Física, al considerar que un móvil se desplaza en una línea recta y los datos se
registran para cierto punto considerado como referencial. En este último caso, una velocidad negativa
interpreta que el móvil se acerca al referencial, mientras que en el problema que abordamos, refleja que la
DQO se reduce a medida que transcurre el tiempo.
Pasemos al segundo ajuste (Figura 11). El mismo corresponde a los valores de Velocidad de Degradación
Media que se calcularon a través del ajuste polinómico de grado 2 para relacionar la DQO con el tiempo.
Nuevamente aparecen cuestiones matemáticas para discutir, en este modelo hay valores de la 𝑉𝐷 ̅̅̅̅ que son
negativos y positivos, ¿qué interpretaciones le damos en este contexto? A su vez, ¿qué interpretación le
̅̅̅̅ ha sido igual a cero? Podríamos interpretar que en cierto
otorgamos al hecho de que en dos instantes la 𝑉𝐷
intervalo de tiempo (aproximadamente entre 4 y 7 días) para el cual la 𝑉𝐷̅̅̅̅ es positiva, la DQO del efluente
estuvo aumentando. ¿Es lógico que esto ocurra en un medio controlado donde cepas de Bacillus están
degradando la materia orgánica y con ellos disminuye la Demanda Química de Oxígeno?

̅̅̅̅ del efluente


Figura 11: Ajuste polinómico para la 𝑉𝐷

También podemos debatir sobre las unidades de medida que tendrán las constantes que aparecen en el
modelo, lo cual no es un detalle menor en la alfabetización matemática que debemos propiciar en los
𝑚𝑔𝑂2
estudiantes. Podemos notar que la constante −2006.344 debiera tener como unidad de medida [ ],
𝐿∙𝑑í𝑎𝑠
1
mientras que la constante −0.4018 tendrá [ ].
𝑑í𝑎𝑠
Por último, nos queda el ajuste de la Velocidad de Degradación Media que se calculó a través del ajuste
polinómico de grado 4 para relacionar la DQO con el tiempo (Figura 12).

207
Marcel Pochulu y Silvia Moyano

̅̅̅̅ del efluente


Figura 12: Ajuste polinómico para la 𝑉𝐷
Otra vez aparecen cuestiones matemáticas interesantes para discutir, en términos de la información que
estaría reflejando y si la misma describe acertadamente lo que aconteció en la experiencia de laboratorio.
Resta por decidir qué modelo pensamos que describe mejor la 𝑉𝐷 ̅̅̅̅: ¿El modelo exponencial o el modelo
polinómico de grado 2? Pero ¿por qué escoger entre uno y otro modelo? ¿No podríamos escoger un modelo
para ciertos valores de tiempo y el otro para los restantes? Ciertamente que sí podemos hacerlo de esa
manera también. Podemos notar que para 𝑡 < 3.5 días, el modelo polinómico describe mejor la 𝑉𝐷 ̅̅̅̅ del
efluente, mientras que para valores de 𝑡 > 3.5 días, el modelo exponencial pareciera ser el más adecuado.
Analicemos ambas gráficas en simultáneo (Figura 13).

̅̅̅̅ del efluente


Figura 13: Comparación entre el modelo de ajuste polinómico y exponencial para la 𝑉𝐷
Si buscamos el punto de encuentro, hallamos que aproximadamente ocurre para 𝑡 = 3.4. En consecuencia,
̅̅̅̅ resulta:
la función que mejor describiría la 𝑉𝐷

208
15. Degradación de las aguas residuales mediante procesos biológicos

2
̅̅̅̅ = {−68.682𝑡 + 858.9667𝑡 − 2643.061 𝑠𝑖 0 ≤ 𝑡 ≤ 3.4
𝑉𝐷
−2006.3443. 𝑒 −0.4018𝑡 𝑠𝑖 3.4 < 𝑡 ≤ 7
El dominio de esta función es el intervalo [0,7], pues hemos buscado un modelo que aproximara datos para
cierto rango de valores. Si nuestra intención es extrapolar, deberíamos analizar con cuidado lo que acontece
para valores de 𝑡 > 7 y si el modelo podría predecir lo que ocurre. Una representación gráfica de esta
función sería:

Figura 14: Modelo funcional final propuesto para la ̅̅̅̅


𝑉𝐷 del efluente
Notemos que obtuvimos la Velocidad de Degradación Media recurriendo a cálculos sencillos y ayudados por
un software. El modelo podría haber sido más simple, como el que proponen Moyano et al (2009), en
términos de considerar solo una función polinómica de grado 3.
Si los conocimientos de los estudiantes incluyen a las derivadas y aplicaciones, tendremos la oportunidad de
comparar estrategias de cálculo. Por un lado, el cálculo aproximado y ajuste de modelos y, por el otro, la
validación del modelo funcional que vincula la DQO con Tiempo analizándolo en el contexto del problema. En
lo que hace a la comparación de modelos obtenidos por uno u otro método, consideremos el modelo de
ajuste exponencial que obtuvimos en primera instancia (Figura 4):
𝐷𝑄𝑂 = 4994.9614 ∙ 𝑒 −0.4018𝑡
Si derivamos ambos miembros con respecto a la variable 𝑡 (derivada temporal de las funciones), tendremos
nada menos que la Velocidad de Degradación del efluente:
𝑉𝐷 ≅ −2006.9754 ∙ 𝑒 −0.4018𝑡
Si comparamos esta expresión con la que habíamos encontrado para la Velocidad de Degradación Media del
̅̅̅̅ ≈ −2006.344 ∙ 𝑒 −0.4018𝑡 , notamos que habíamos logrado una muy buena aproximación. No
efluente: 𝑉𝐷
solo es una muy buena aproximación, sino que también pone en evidencia cómo se relacionan ciertos
objetos matemáticos cuando se analizaron desde diferentes perspectivas.
Busquemos validar el modelo y para ello tendremos que recurrir nuevamente a teoría relacionada, en este
caso, cinética química. La cinética química es un área de la físicoquímica y se encarga del estudio de la
rapidez de una reacción. Para cada reacción se puede formular una ecuación y establecer un orden de la
misma. Sin buscar profundizar en esta temática, podremos constatar que estamos ante una reacción de
primer orden, donde la velocidad de la reacción es directamente proporcional a la concentración de un

209
Marcel Pochulu y Silvia Moyano

reactivo en particular e independiente de las concentraciones de todas las demás. Por lo tanto, la ecuación
de la reacción será:
𝑑[𝐴]
− = 𝑘 ∙ [𝐴]
𝑑𝑡
donde k es el coeficiente de velocidad específica. La resolución de esta ecuación diferencial será:
[𝐴]
𝑙𝑛 [𝐴] = −𝑘 ∙ 𝑡 , o bien [𝐴] = [𝐴]0 ∙ 𝑒 −𝑘𝑡
0

donde [𝐴]0 representa la concentración del reactivo 𝐴 al iniciarse la reacción (para 𝑡 = 0), y [𝐴] es la
concentración del mismo en el instante 𝑡 cualquiera.
Esta ecuación, analizada a la luz de los resultados obtenidos, nos expresa que la Velocidad de Degradación
del efluente responde al formato:
𝑉𝐷 = 𝑉𝐷0 ∙ 𝑒 −𝑘𝑡
Lo cual se corresponde con el modelo obtenido al resolver el problema propuesto.
15.4. Perspectivas de trabajo matemático con el problema
Hasta ahora sólo hemos abordado una pregunta posible que se desprende de la situación: ¿cuál es la
velocidad de degradación?, pero quedan muchas más por explorar, así como la central del problema. La
decisión la tomará el profesor o profesora de acuerdo al contexto de trabajo, intereses de los alumnos y
alumnas, conocimientos previos, etc. Nuestra intención solo apunta a recuperar la riqueza del trabajo
matemático en contextos extramatemáticos.
En este sentido, podemos preguntarnos: ¿cuánto tiempo demanda para que el inóculo de Bacillus spp
reduzca a la mitad la DQO? Si consideramos el modelo polinómico de grado 3 que también se propone en
Moyano et al (2009), es impensable que los alumnos encuentren la solución por métodos algebraicos, pero sí
por métodos numéricos. El software, en este caso, es un buen aliado. Por ejemplo, la DQO inicial resulta de
5564 𝑚𝑔𝑂2 /𝐿 y el modelo de ajuste que encontramos fue: 𝐷𝑄𝑂 = −22.894𝑡 3 + 429.5177𝑡 2 −
2643.4905𝑡 + 5573.7778. Notemos que para este modelo de ajuste la DQO inicial es aproximadamente
de 5574 𝑚𝑔𝑂2 /𝐿, lo cual no tiene que preocuparnos, pues estamos trabajando en un contexto real, donde
son inevitables los errores de medición y, además, estamos ajustando modelos, los cuales también están
dotados de error. Gráficamente vemos la solución en la Figura 15.

Figura 15: Cálculo con software del tiempo que demanda reducir a la mitad la DQO inicial del efluente

210
15. Degradación de las aguas residuales mediante procesos biológicos

Esto nos dice que en 1,4448 𝑑í𝑎𝑠 (aproximadamente 1 día y 11 horas) se habría reducido a la mitad la
DQO inicial que presentaba la muestra de efluente. Recordemos que la experiencia se hizo con 2 litros de
efluentes y 180 ml de una suspensión de Bacillus spp.
A su vez, podemos intentar predecir cuánto tiempo demandará para que la DQO alcance un límite normal
(inferior a 100 𝑚𝑔𝑂2 /𝐿), que es la pregunta central del problema formulado inicialmente. Nuevamente
recurrimos a una gráfica de las funciones (Figura 16) y con uso de software, podemos determinar el punto de
encuentro entre los modelos de ajuste (hemos considerado los modelos exponencial y el polinómico de grado
3) y la recta de expresión analítica DQO = 100.

Figura 16: Cálculo con software del tiempo que demanda llegar a límites normales de la DQO del efluente
Podemos decir que a partir de los 10 días, la DQO del efluente debiera encontrarse dentro de los límites
normales -si consideramos el modelo exponencial- o a partir de los 9 días -si tomamos el modelo polinómico
de grado 3-. Cabe aclarar que para estimar el número de días, podríamos hacerlo algebraicamente, si
consideramos el modelo exponencial:
4994.9614 ∙ 𝑒 −0.4018𝑡 = 100
100
𝑙𝑛 (4994.9614)
𝑡=
−0.4018
𝑡 ≅ 9.73 𝑑í𝑎𝑠
No ocurre lo mismo si se considera el modelo polinómico de grado 3, donde necesariamente debemos
recurrir a una aproximación, pues un método algebraico lo tornaría inaccesible.
En un entorno de trabajo donde los alumnos tienen conocimiento de métodos numéricos de interpolación,
podría encontrarse un modelo de Velocidad de Degradación del efluente por spline. Un spline es una curva
diferenciable, definida por secciones mediante polinomios de bajo grado, y permite evitar las indeseables
oscilaciones encontradas al interpolar mediante polinomios de grado elevado, tal como ocurre en la Figura 9,
cuando se ajustó un polinomio de grado 7 para describir la relación entre DQO y tiempo. Para este caso, es
indispensable trabajar con software de cálculo numérico.
También podríamos comparar las velocidades de degradación de efluentes, cuyas pruebas de laboratorio
son similares, pero cuando la DQO inicial no es la misma. En Moyano, Otero, Boiero, Nicolli, Marín y Peralta
(2008), se realizaron dos ensayos de degradación de efluentes lácteos usando lodos aclimatados con cepas
de Bacillus esporulados, similares a las existentes en el mercado de productos biológicos para la depuración
de agua residuales.

211
Marcel Pochulu y Silvia Moyano

En un caso se partió de un efluente con una DQO inicial de 4352 𝑚𝑔𝑂2 /𝐿 y de otro, con un elevado grado
de contaminación, donde la DQO era de 17.683 𝑚𝑔𝑂2 /𝐿. En ambos casos, los valores iniciales de la DQO
corresponden al del efluente más el agregado de las bacterias. Los valores obtenidos de la DQO en función
del tiempo se registran en la siguiente tabla:
Tabla 4: Valores de la DQO de dos efluentes lácteos con diferente grado de contaminación, en función del tiempo

ENSAYO 1 ENSAYO 2
Tiempo DQO Tiempo DQO
[días] [mgO2 /L] [días] [mgO2 /L]
0 3600 0 16200
0.5 3200 0.3 14500
1 1650 1 13800
1.3 1260 1.3 12200
1.5 880 2 11000
2 390 2.3 9900
2.3 260 5 6000
3 100 6 5200
6 0 7 2540
8 0 9 300
12 270
14 80
15 73
16 0

Pasar del registro tabular al gráfico nos puede ayudar a decidir qué modelo de ajuste podría ser el más
conveniente (Figura 17) y el problema se reinicia una vez más.

Figura 17: DQO en función del tiempo para dos ensayos de degradación de efluentes

212
15. Degradación de las aguas residuales mediante procesos biológicos

Por último, remarcamos que el problema abre perspectivas de trabajo si se incorporan otras investigaciones
que tengan el mismo foco de estudio, permitiendo comparar resultados y abordar todas las preguntas que
nos planteábamos en la introducción. El desafío queda en manos de profesores y profesoras para proponer
actividades de esta naturaleza.
15.5. Referencias bibliográficas
Cuervo, J. (2010). Aislamiento y caracterización de Bacillus spp como fijadores biológicos de nitrógeno y
solubilizadores de fosfatos en dos muestras de biofertilizantes comerciales (tesis de grado). Facultad
de Ciencias Básicas. Pontificia Universidad Javeriana. Bogotá, Colombia.
Macedo, M. y Vola, M. (2003). Principales grupos de bacilos Gram positivos aerobios. Disponible en
http://www.higiene.edu.uy/cefa/2008/grampositivosaerobios.pdf
Marsh, K. (2007). Bacteria and how they multiply. Clowne, England: Techni-K Consulting. Disponible en:
https://techni-k.co.uk/bacteria/
Moyano, S.; Otero, R.; Boiero, L.; Nicolli, C.; Marín, G. y Peralta, J. (2008). Biodegradación y caracterización
de microorganismos de lodos activados provenientes de efluentes de industrias lácteas. XXVII
Congreso Argentino de Química. San Miguel de Tucumán: Universidad Nacional de Tucumán.
Moyano, S.; Peralta, J.; Cruciani, M.; Otero, R. y Marín, G. (2009). Degradación de un efluente lácteo
utilizando un microorganismo del género Bacillus aislado de un lodo activado. 1º Congreso
Internacional de Ambiente y Energías Renovables. Villa María: Universidad Nacional de Villa María.
Ramalho, R. S. (1996). Tratamiento de aguas residuales. Barcelona, España: Reverté.

213
16. Mapas de cobertura de wifi

16
Mapas de cobertura de wifi

Marcel Pochulu
16.1. Introducción
Hoy en día es habitual que lleguemos a una cafetería, comedor, escuela, aeropuerto, etc., y busquemos
conectarnos a la red del lugar y disponernos a mirar correos, enviar mensajes, chatear o hacer algún pago
pendiente. Suele resultar un placer para muchos y una adicción para otros. La tecnología wifi (wireless
fidelity) se implantó en forma masiva en nuestras vidas y tiene como gran ventaja la movilidad y sencillez en
la instalación pues no requiere de cableado. En contraposición, es más lenta debido a que se transmite por
aire y es sensible a interferencias de todo tipo.
Uno de los problemas más habituales a los que se enfrentan los usuarios de wifi es que la señal no tiene la
velocidad adecuada, no llega bien a los dispositivos o hay demasiadas conexiones en la zona que impiden
que podamos conectarnos. Muchos son los factores que pueden intervenir para que la conexión sea
inadecuada, pero entre ellos intervienen los routers o enrutadores, que permiten asegurar la conexión entre
diferentes redes o determinan la ruta que debe tomar un determinado paquete de datos en función de la
dirección de destino (Marugán, 2010).
Cuando un router o enrutador está sobrecargado, es usual que se experimente la caída de la conexión
porque la red está siendo utilizada al máximo en procesos como descargas, transmisión simultánea,
transferencia de archivos de gran tamaño, juegos online, aplicaciones de alto consumo de datos (YouTube,
Netflix, Facebook Video, Instagram), entre otros.
A su vez, las conexiones wifi también pueden caerse cuando los dispositivos conectados están localizados
cerca del rango final de señal inalámbrica de la red. Sabemos que mientras más lejos estemos de un
enrutador, más inestable será la conexión que se obtenga. Cuantos más dispositivos inalámbricos estén
conectados a un enrutador inalámbrico vía wifi, más ocupado estará el canal y, por tanto, más tardará el
router en transmitir una misma señal.
Seguramente estas dificultades las habremos experimentado repetidas veces y suele mejorarse la
conectividad si nos movemos de zona para conectarnos con mayor intensidad o a otro enrutador.

215
Marcel Pochulu

Aquí nace nuestra situación problema y proponemos la siguiente consigna:


Establecer el mapa de cobertura de wifi que determinan varios enrutadores en una institución educativa. Esto
conlleva a establecer zonas o regiones de tal manera que estando en ellas la distancia al enrutador sea
menor o igual que la de los demás. Fundamentar la respuesta a través de un estudio matemático propio, en
lugar de buscar la información en Internet o análisis superficial de datos a través de experiencia de expertos.

16.2. Contextualización de la situación problema


Lo que hoy llamamos tecnología wifi para conexión inalámbrica nació a finales de los años 90 y se la llamó
Wireless (sin cables). A partir de ella, las empresas Nokia y Symbol Technologies crearon en 1999 la
Wireless Ethernet Compatibility Alliance (WECA) y, en el año 2003, pasó a denominarse WiFi Alliance. El
objetivo de la compañía fue crear una marca que permitiera fomentar más fácil la tecnología inalámbrica y
asegurar la compatibilidad de equipos. Esto llevó a que todos los dispositivos tuviesen el logotipo WiFi para
indicar la compatibilidad, independientemente del fabricante del producto. A partir de entonces se habla de
wifi como la tecnología sin cables, a pesar de que estamos tratando con el nombre de una marca comercial y
no de la tecnología como tal (Marugán, 2010).
Cada router o enrutador puede tener un alcance teórico de 140 metros al aire libre y si no hay viento.
Obviamente que dentro de una construcción o edificio esto se reduce a 35 metros o menos. Si queremos
comprender la transmisión de datos por medio de wifi, debemos abordar una lista muy grande de temas. La
señal de wifi no solo se debilita con la distancia, sino que también se reduce el ancho de banda.
Por otro lado, el ancho de banda se comparte. Esto quiere decir que si hay computadoras conectadas a la
red, teléfonos con sistema Android bajando actualizaciones, tablet reproduciendo películas de Netflix, etc., y
nos queremos conectar para bajar un archivo, podríamos tardar mucho tiempo en hacerlo.
Además, cuando se tienen varios enrutadores se puede crear un mapa de calor de la red wifi para saber qué
puntos conviene evitar, o dónde potenciar la señal porque llega débil (Figura 1), lo cual se logra fácilmente
con software específico que se encuentra en Internet.

Figura 1: Mapa de calor de conexiones wifi

216
16. Mapas de cobertura de wifi

16.3. Aproximaciones matemáticas al problema


Para iniciar con la resolución del problema tendremos que tomar un caso particular, pues el problema es
abierto. Naturalmente no tiene sentido que se escoja un edificio que solo disponga de dos o tres enrutadores
de señales de wifi, porque le quita potencialidad al problema y limita la actividad matemática que podríamos
llevar a cabo. En consecuencia, sería conveniente escoger una institución educativa a la cual tengamos
acceso, que sea de nuestro conocimiento, para así establecer el número de enrutadores que posee y su
localización física.
En nuestro caso hemos tomado una institución educativa hipotética que cuenta con 6 enrutadores
distribuidos en todo el edificio como se muestra en la Figura 3. Notemos que no es necesario contar con
planos a escala del edificio, sino una distribución aproximada de las diferentes dependencias que tiene la
institución y el lugar donde se encuentra cada enrutador.

Figura 2: Distribución de enrutadores en el edificio


Asimismo, será necesario efectuar algunos recortes a la situación problema para que podamos abordarlo con
éxito. No buscamos establecer un mapa de calor de wifi (el cual no llevaría a detectar calidad de señal en
diferentes puntos), sino conformar un mapa de cobertura bajo las siguientes hipótesis:
- La señal wifi no se debilita con la distancia ni se reduce el ancho de banda. Tampoco se producen
interferencias entre módem, enrutadores o sistema Bluetooth.
- No existe pérdida de señal por cuestiones edilicias (paredes, vidriados, cerámicos, concretos, etc.).
- Todos los enrutadores tienen la misma potencia y alcance.
Una idea intuitiva es pensar que el alcance de cada enrutador se puede configurar a través de un círculo que
vamos expandiendo paulatinamente (Figura 3). Con este procedimiento podríamos encontrar zonas que con
certeza pertenecen a un enrutador y no a otro. De todos modos, no quedaría claro aún dónde se encuentra la
frontera de las mismas al aumentar la zona de cobertura.

217
Marcel Pochulu

Figura 3: Cobertura de los enrutadores

Tampoco sería adecuado abordar el problema en su complejidad total, pues sería dificultoso interpretar la
información. En este sentido, simplificaremos inicialmente el problema una vez más. Esto nos lleva a
considerar solo dos enrutadores y luego, iremos agregando los demás.
Las estrategias que suelen usar los estudiantes son variadas, aunque rápidamente llegan a la conclusión de
que la línea de frontera termina siendo una recta, donde los puntos ubicados sobre ella equidistan de los dos
puntos que representan los enrutadores (𝑅1 y 𝑅2 en nuestro caso). Esta recta, desde el punto de vista
geométrico, no es nada más que la mediatriz del segmento 𝑅 ̅̅̅̅̅̅̅
1 𝑅2 que une los dos enrutadores (Figura 4).

Figura 4: Línea de frontera de la región de cobertura de dos enrutadores

218
16. Mapas de cobertura de wifi

Ya tendríamos delimitada dos regiones y disponemos de una estrategia para determinar zonas de cobertura
entre dos enrutadores. Ahora incorporamos un enrutador más, que termina conformando un triángulo con los
dos considerados inicialmente. La estrategia a utilizar será la misma, esto es, trazar la mediatriz de cada uno
de los segmentos que quedan determinados y que conforman el triángulo, pues será la línea de frontera de la
cobertura de cada enrutador. Las mediatrices de un triángulo concurren en un único punto y será necesario
determinar las semirrectas que conforman las fronteras entre los tres enrutadores (Figura 5).

Figura 5: Líneas de frontera de la región de cobertura de tres enrutadores


Al agregar un cuarto enrutador, el problema conlleva a poner en juego conocimientos aprendidos. El nuevo
punto conforma un nuevo triángulo que tendrá un lado y la mediatriz en común con el anterior (Figura 6).

Figura 6: Líneas de frontera de la región de cobertura de cuatro enrutadores

219
Marcel Pochulu

El proceso puede verse como equivalente a dar una solución general cuando se tienen dos soluciones
particulares. En este caso, las líneas de frontera no serán solo semirrectas, sino un segmento que une los
dos circuncentros de los triángulos, lo cual es un detalle relevante (ver Figura 6).
De manera iterativa, determinamos el resto de las fronteras y el mapa de cobertura habría quedado
determinado (Figura 7).

Figura 7: Mapa de cobertura de wifi para seis enrutadores


Si bien llegamos a una solución particular para determinar el mapa de cobertura de wifi para 6 enrutadores, la
estrategia se podría generalizar para 𝑛 enrutadores. Llegado este momento será necesario profundizar en
conocimientos matemáticos y buscar más información al respecto. Internet es una aliada para los
estudiantes, pero la información también podría desbordarlos. Tampoco tiene sentido buscar información y
reproducirla, sino más bien, establecer los vínculos entre lo realizado y lo que ya está construido en la clase
de matemática, tratando de comprender las ideas que subyacen.
Las regiones que determinamos en el mapa de cobertura (Figura 7) reciben el nombre de polígonos de
Thiessen, pues deben su nombre al meteorólogo estadounidense Alfred Thiessen (1872-1956), quien fue el
que realizó particiones del plano euclídeo con las características que pusimos en juego en la resolución del
problema. No obstante, estas particiones también fueron estudiadas por más matemáticos, de los cuales
derivan nombres particulares:
- Gueorgui Voronói (1868-1908) y por tanto, reciben el nombre de Diagramas de Voronói,
- Gustav Dirichlet (1805-1859), de quien toma el nombre la Teselación de Dirichlet,
- Eugene Wigner (1902-1995) y Frederick Seitz (1911-2008), las denominaron Celdas de Wigner-
Seitz,
- León Nicolás Brillouin (1889-1969), las llamó Zonas de Brillouin.
Un polígono de Thiessen, Diagrama de Voronói o Teselación de Dirichlet usa la noción de proximidad en el
plano de un conjunto finito de puntos {𝑝1 , 𝑝2 , ⋯ , 𝑝𝑛 } llamados generadores, con 𝑛 ≥ 2, donde a cada 𝑝𝑗
se le asocian los puntos del plano que están más cerca o a igual distancia que cualquier otro 𝑝𝑖 con 𝑖 ≠ 𝑗.
Los puntos que equidisten de dos puntos del plano formarán la frontera de cada región.

220
16. Mapas de cobertura de wifi

Los conjuntos resultantes forman una teselación del plano de tal manera que todo punto del mismo pertenece
a solo una de las regiones, excepto los de la frontera. Veamos algunas técnicas y algoritmos para construir
las celdas del Diagrama de Voronói.
Intersección de semiplanos. Se recurre a la definición de polígono de Voronói ordinario generado por 𝑝𝑖 ,
𝑛

𝑉(𝑝𝑖 ) = ⋂ 𝐻(𝑝𝑖 , 𝑝𝑗 )
𝑗=1,𝑗≠𝑖

con 𝑃 = {𝑝1 , 𝑝2 , ⋯ , 𝑝𝑛 } ⊂ ℝ2, 2 < 𝑛 < ∞, 𝑝𝑖 ≠ 𝑝𝑗 para 𝑖 ≠ 𝑗, siendo 𝑖, 𝑗 ∈ 𝐼𝑛 = {1,2, ⋯ , 𝑛}, y


𝐻(𝑝𝑖 , 𝑝𝑗 ) semiplanos.
La estrategia sugiere una construcción del diagrama celda por celda. Esto es, para cada punto se calcula la
celda correspondiente como intersección de semiplanos. La idea es generar celdas de forma incremental en
lugar de hallar la intersección de cada celda con respecto a todas las demás. En la Figura 8 se generó una
celda correspondiente a uno de los puntos.

Figura 8: Polígono de Voronói generado por un punto

Algoritmo divide y vencerás. La técnica consiste en partir el problema en subproblemas y resolverlos


recursivamente. La solución general se obtiene al unir las soluciones de los subproblemas. El nombre del
algoritmo alude a un refrán que implica resolver un problema difícil, dividiéndolo en partes más simples la
cantidad de veces que sea necesario, hasta que la resolución de cada una de las partes se torna obvia. Si
bien la estrategia parece lógica y adecuada, lo cierto es que el algoritmo resulta bastante difícil de
implementar. Veamos cómo sería en nuestro caso.
Suponemos que se tiene un problema de tamaño 𝑛, entonces, según Rodríguez (2015, p. 51) tendríamos
que aplicar los siguientes pasos:
1. Se divide el problema en 𝑘 subproblemas de tamaño 𝑛/𝑘.
2. Se resuelven cada uno de los 𝑘 subproblemas.
3. Se combinan las soluciones de los 𝑘 subproblemas para obtener la solución general.

221
Marcel Pochulu

Entonces dividimos al conjunto 𝑃 de puntos del plano en dos subconjuntos mediante la recta 𝐿 (Figura 9), de
tal manera que ambos conjuntos tengan prácticamente el mismo número de puntos. Posteriormente
determinamos los diagramas de Voronói para cada subconjunto, tratándolos como problemas diferentes.

Figura 9: Primera parte del algoritmo divide y vencerás


Para la construcción final del diagrama de Voronói (Figura 11) se tiene en cuenta el siguiente lema:
Si dos subconjuntos 𝑆1 y 𝑆2 están separados por una línea 𝐿, existe una línea poligonal monótona creciente
tal que todo punto 𝑞 situado a la derecha (izquierda) de dicha poligonal está en la región de Voronói en un
punto de 𝑆1 (𝑆2 ).

Figura 11: Segunda parte del algoritmo divide y vencerás

222
16. Mapas de cobertura de wifi

Para ello se identifican dos puntos situados en los extremos de la línea divisoria 𝐿 y se traza la mediatriz
(puntos 𝑃2 y 𝑃6 de la Figura 11) hasta que interseque alguna de las fronteras de 𝑆1 o 𝑆2 .
Posteriormente habrá que buscar dos puntos cuya mediatriz contenga al punto encontrado en el paso
anterior. Estos puntos se deberían tomar entro los más “altos” o más “arriba” ubicados en la proximidad de la
línea 𝐿. En nuestro ejemplo son 𝑃1 y 𝑃6 .
Esta mediatriz interseca también a otra línea de frontera de 𝑆1 o 𝑆2 . Se eliminan las líneas de frontera a la
derecha o izquierda de 𝐿 del primer punto y se contruyen las fronteras determinadas por la mediatrices
trazadas. El proceso es iterativo hasta construir la poligonal que une las soluciones particulares de los dos
subconjuntos considerados.
Triangulación de Delaunay. Debe su nombre al matemático ruso Borís Delone (fonéticamente ‘Deloné’),
aunque se usó la forma francesa de su apellido “Delaunay” para el algoritmo. Conlleva a establecer una red
de triángulos conexa y convexa que cumple la condición de que la circunferencia circunscripta a cada
triángulo no contiene ningún vértice de otro triángulo (Figura 12).

Figura 12: Triangulación de Delaunay

El método que describimos para resolver el problema guarda globalmente algunos principios de la
triangulación de Delaunay, donde una de las regiones queda determinada por los segmentos que unen los
circuncentros de los círculos, que es una de las propiedades del mismo.
A este método están asociados algunos algoritmos. Por ejemplo, el algoritmo de Bowyer-Watson, el cual
consiste en añadir los vértices a una triangulación de Delaunay trivial, la cual es corregida en cada paso para
mantener la condición de que cada circunferencia circunscripta a cada triángulo no contiene ningún vértice de
otro triángulo. Naturalmente hay varias posibilidades para seleccionar el siguiente vértice, lo cual puede
hacerse teniendo en cuenta una coordenada del mismo o usando un diagrama de árbol. La selección del
vértice siguiente influye en el tiempo de ejecución final del algoritmo.
Otro algoritmo es el de tipo barrido o sweepline (en inglés) y entre ellos se destaca, según Torrico (2016), el
algoritmo Fortune. Se basa en un principio de construcción incremental, al construir una pequeña parte de la
triangulación final y añadir vértices en el orden en que son barridos por una recta determinada, hasta que la
triangulación esté completa.

223
Marcel Pochulu

16.4. Perspectivas de trabajo matemático con el problema


Todo lo referido a determinar particiones en el plano con la condición de que los puntos ubicados en ellas se
encuentren a menor distancia de uno fijo conlleva a los polígonos de Thiessen o diagramas de Voronói. En
particular, podríamos trabajar con isoyetas o isohietas, las cuales son isolíneas que unen los puntos de un
plano cartográfico que presentan la misma precipitación en la unidad de tiempo considerada. Cuando se
cuentan con regiones montañosas una isoyeta es una línea curva que une los puntos que tienen igual valor
de precipitación, por lo que resulta análoga a las curvas de nivel.
En consecuencia, podemos tener datos de diferentes pluviómetros de una zona ante una precipitación, pero
¿a qué región le asignamos lo registrado por el instrumento? Los diagramas de Voronói son aplicables en
este caso y se requiere saber de la ubicación de los pluviómetros, asumiendo además que la cuenca es de
topografía suave o plana. A su vez, se hace necesario realizar una ponderación de área, la cual se calcula
como el cociente entre el área asociada a cada pluviómetro y el área total. De esta manera, la precipitación
ponderada se obtiene al multiplicar la precipitación medida en cada pluviómetro y el factor ponderador de
área.
También podríamos trabajar, acordando previamente con los estudiantes y teniendo en cuenta sus intereses,
con regiones de cobertura de las antenas de telefonía celular, de farmacias o centros de asistencia en una
ciudad, cajeros automáticos, etc.
Una aplicación interesante, y al mismo tiempo motivadora para los estudiantes fanáticos del fútbol, es
analizar diagramas de Voronói en la disposición de los jugadores sobre el terreno de juego como puntos
sobre un plano. Se puede asignar a cada jugador su región de Voronói que estará formada por los puntos de
la cancha que se encuentran más cerca de cada jugador. Dado que los jugadores no permanecen inmóviles,
el diagrama irá modificándose con el tiempo. No obstante, nos brinda información sobre el equipo que mejor
posicionado se encuentra en la cancha. En este punto se pueden consultar los trabajos de Oca (2005) y Kim
(2004) que abordan el fútbol, o el de Lópes, Fonseca, Lese & Baca (2014) que toman el básquet.
16.5. Referencias bibliográficas
Marugán, J. (2010). Diseño de infraestructura de red y soporte informático para un centro público de
educación infantil y primaria (tesis de licenciatura). Universidad Politécnica de Madrid, España.
Lópes, A.; Fonseca, S.; Lese, R. & Baca, A. (2014). Using Voronoi diagrams to describe tactical behaviour in
invasive team sports: an application in basketball. Cuadernos de Psicología del Deporte, 15(1), 123-
130.
Oca, E. (2005). Diagramas de Voronoi aplicados al fútbol de robots (tesis de grado). Universidad de Buenos
Aires, Argentina.
Kim, S. (2004). Voronoi analysis of a Soccer Game. Nonlinear Analysis: Modelling and control, 9(3), 233–240.
Rodríguez, U. (2015). Aplicación de la geometría computacional en la reconstrucción 3D basada en
Diagramas de Voronoi (tesis de grado). Benemérita Universidad Autónoma de Puebla, México.
Torrico, L. (2016). Algoritmo de Fortune sin eventos de círculo usando la primitiva InCircle. Investigación y
Tecnología, 4(2), 1-15.

224
17. Estimación de la rapidez máxima alcanzada en ruta por vehículos

17
Estimación de la rapidez máxima
alcanzada en ruta por vehículos

Marcel Pochulu
17.1. Introducción
Al manejar un vehículo sabemos que hay que respetar las reglas de tránsito, no solo para evitar multas, sino
para preservar nuestra seguridad, la de las personas que nos acompañan en el vehículo y la de otros
conductores y transeúntes con quienes compartimos las calles. Manejar un vehículo conlleva muchas más
responsabilidades de las que creemos y frecuentemente los organismos oficiales dedicados al tránsito,
compañías aseguradoras y campañas publicitarias nos las recuerdan. Entre tantas prácticas tenemos: revisar
el buen funcionamiento del auto, respetar las señales de tránsito, no beber al conducir, no hablar por telèfono
mientras se conduce, utilizar cinturón de seguridad, no conducir cuando se está cansado o con sueño, utilizar
las luces adecuadamente, respetar velocidades permitidas, entre otras.
En cuanto a los límites de velocidad permitidos, la mayoría de las provincias argentinas adhirieron, con
algunas reservas, a la ley nacional de tránsito Nº 24449. En su artículo 51 se establecen las velocidades
máximas que deben respetar los vehículos que circulan por la vía pública bajo diferentes condiciones. Por
ejemplo, en zona urbana, se debe circular por las calles a 40 km/h y a 60 km/h en avenidas. En zona rural,
110 km/h para motocicletas, automóviles y camionetas, 90km/h para microbús, ómnibus y casas rodantes
motorizadas, y 80 km/h para camiones, automotores con casa rodante acoplada o transportes de sustancias
peligrosas. En el caso de autopistas se permite que motocicletas y automóviles puedan circular hasta 130
km/h y en las rutas que atraviesen zonas urbanas a 60 km/h salvo señalización en contrario.
Estas velocidades máximas las podemos detectar por medio del velocímetro del automóvil o un navegador
GPS conectado al auto. Al respecto, Viso (2016, p. 1) se pregunta si la velocidad real de un automóvil es la
que marca el velocímetro y comenta que:
Es simple: si por alguna razón el velocímetro no nos indicase la velocidad real a la que
circulamos, o si por otra razón tuviese un error demasiado abultado, los radares de velocidad de
las autoridades harían su particular agosto con nuestra matrícula, ¿verdad? Pues bien, la

225
Marcel Pochulu

velocidad real del coche no es exactamente la del velocímetro. Pero tampoco debería tener
demasiada diferencia.
En Internet se puede encontrar que diversos especialistas aseguran que, como norma general, los
velocímetros están indicando siempre una velocidad que es superior a la que marca la aguja del velocímetro.
Por ejemplo, en Infobae (2016) se reporta que cuando el velocímetro marca los 100 km/h, la velocidad real
dependerá de la marca y modelo del automóvil, y como ejemplos se indica en la Tabla 1.
Tabla 1: Velocidades reales de vehículos a los 100 km/h del velocímetro

Marca y modelo de vehículo Velocidad real a los 100 km/h del velocímetro

Ford Ka 1.6 91.9

Renault Clio Dci 95.0

Peugeot 206 1.6 97.2

Citroën C3 HDi 99.1

Renault Megane II Dci 96.0

Peugeot 307 2.0 97.3

Volkswagen Golf 1.8T 95.7

Peugeot 407 2.2 99.0

Volkswagen Passat 2.0 98.0

Ford Mondeo V6 96.8

Toyota Hilux 3.0 Automática 93.2

BMW X5 3.0d 98.0

Nissan X-Trail Automática 97.0

Viso (2016, p. 1) aporta nuevos elementos a la situación planteada precedentemente y expresa que:
Por desgracia, el sistema perfecto y libre al 100% de errores no existe. Exagerando un poco, es
imposible construir algo perfecto con máquinas imperfectas. La manera más sencilla de entender
cómo calcula la velocidad un “dispositivo GPS” es pensar en una sencilla cuenta: hemos
recorrido un tramo llano de X metros en Y segundos, ¿cuál es la velocidad media en ese tramo?
Cuando más corto sea el tramo, más se va a parecer la velocidad media a la velocidad
instantánea, y por tanto más exacta la medición.
Aquí nace nuestra situación problema y proponemos la siguiente consigna:
Un vehículo circula por una autopista y disponemos, debido a una conversación mantenida a través de una
App de mensajería para teléfonos móviles, el horario y la localidad por la que está atravesando en la ruta.
Determinar si ha excedido los límites de velocidad en algún momento del camino. Fundamentar la respuesta
a través de un estudio matemático propio, en lugar de buscar la información en Internet.
Cabe destacar que no se busca con el problema aplicar conocimientos del Cálculo Diferencial (límite o
derivada), sino más bien, realizar aproximaciones matemáticas a su solución que parten de nociones
intuitivas y conceptos asociados con el mismo.

226
17. Estimación de la rapidez máxima alcanzada en ruta por vehículos

17.2. Contextualización de la situación problema


La Organización Mundial de la Salud, en su campaña del 2017, expresó que el exceso de velocidad es la
causa de uno de cada tres accidentes de tránsito en el mundo, siendo la principal causa de muerte en
jóvenes de 15 a 29 años. Algunos datos estadísticos brindados por la Organización Mundial de la Salud para
el año 2015 pueden verse reflejados en la Figura 1.

Figura 1: Datos estadísticos mundiales por lesiones ante accidentes de tránsito

227
Marcel Pochulu

Más allá de estos datos, es llamativo ver en Internet el reporte de excesos de velocidad de los vehículos en
rutas. Por ejemplo, en García (2017), se reportan los 8 excesos de velocidad más graves de Europa, cuyo
detalle se refleja en la Tabla 2.

Tabla 2: Excesos de velocidad más graves cometidos en Europa

Velocidad (km/h) País Vehículo Sanción

324 Suiza Bentley Continental GT € 1865 y seis meses de prisión

€ 357 y 10 puntos (sobre 20) de la


311 Italia Porsche 911
licencia de conducir

310 Francia Audi RS4 1 año de cárcel

28 meses de prisión y 10 años sin


309 Reino Unido Nissan GT-R
licencia de conducir

300 Polonia Porsche Panamera € 1170 y se le quitó licencia de conducir

297 España Porsche 911 Carrera € 3600 y un año sin licencia de conducir

Sin sanción porque no fue detectado


290 Holanda Kawasaki Ninja ZX-9R por radar ni agente, pero el piloto subió
el video a YouTube

€ 680 y le quitaron 4 puntos (sobre 8)


240 Alemania Audi A3
de la licencia de conducir

17.3. Aproximaciones matemáticas al problema


Para iniciar con la resolución del problema tenemos que disponer de datos que sean representativos de la
situación descripta en la consigna de trabajo. Podemos tomar los datos experimentales mientras se circula
por una autopista, tratando de emular la situación descripta, esto es, enviar un mensaje de texto a otra
persona al pasar por lugares determinados o reconocidos.
Contar con datos reales permite que efectivamente llevemos a cabo todas las etapas del proceso de
modelización, pues permitirá validar los resultados obtenidos. No tiene sentido que se le entreguen a los
estudiantes datos escolarizados de problemas de movimiento, más allá de que el foco estará puesto en la
actividad matemática que involucra el problema.
Destacamos una vez más que no se tiene como objetivo aplicar conocimientos del Cálculo Diferencial en una
variable y que el problema se puede resolver prescindiendo de estos temas. No obstante, es una condición
sine qua non emplear nuevos recursos y, en particular, software de matemática. Esta aclaración es relevante,
porque suele contraponerse con la postura del profesor que sostiene que un estudiante debe disponer de
conocimientos particulares de matemática para resolver un problema, cuando esto no es necesariamente
cierto la mayoría de las veces.
En nuestro caso, disponemos de datos que fueron tomados en un viaje realizado en un vehículo naftero
desde la ciudad de Villa María, con dirección hacia la ciudad de Córdoba y por autopista (Au. Córdoba-
Rosario). De los datos haremos un recorte, el cual corresponde desde el momento en que el automóvil
accede a la autopista hasta llegar al puente de acceso a la ciudad de Pilar. El diálogo que se mantuvo por
mensajes de texto a través de Whatsapp se contempla en la Figura 2.

228
17. Estimación de la rapidez máxima alcanzada en ruta por vehículos

Figura 2: Diálogo a través de una App de mensajería telefónica


Podemos procesar estos datos vinculando el tiempo (en minutos u horas) con la distancia recorrida (en
kilómetros). Apelamos a Google Maps, pues nos permite determinar fácilmente las distancias con solo
desplazar puntos en el plano (Figura 3).
Tabla 3: Tiempo, posición y distancia recorrida por el vehículo
Tiempo Tiempo Distancia recorrida
Hora Posición
(minutos) (hora) (kilómetros)
7:30 0 0 Salida de Villa María 0

7:42 12 1/5 Tio Pujio 14.4

7:50 20 1/3 James Craik 30.3

8:00 30 1/2 Oliva 46.9

8:10 40 2/3 Oncativo 64.2

8:20 50 5/6 Laguna Larga 83.6

8:26 56 14/15 Pilar 95.3

229
Marcel Pochulu

Figura 3: Uso de Google Maps para determinar la distancia entre dos puntos
Podemos notar que no estamos ante un “movimiento rectilíneo uniforme” o “movimiento rectilíneo acelerado”,
razón por la cual no existen fórmulas que podamos utilizar para generalizar la velocidad en todos los puntos
de la trayectoria. Por esta razón, resulta natural calcular la velocidad media y la velocidad instantánea. El
concepto cotidiano de velocidad media suele ser manejado por los estudiantes y está asociado al cociente
entre la distancia recorrida y el tiempo empleado por el móvil para esa acción.
No obstante, esta concepción merece una reflexión epistemológica de por medio. La velocidad media es una
magnitud vectorial (se divide el vector desplazamiento entre el tiempo empleado en efectuarlo), mientras que
la celeridad es escalar y sinónimo de rapidez, la cual se usa precisamente para establecer la relación
existente entre la distancia que recorre un cuerpo y el tiempo empleado. Esta magnitud se designa con la
letra 𝑣, en lugar de 𝑣⃑ que se reserva para velocidad por ser vectorial. En consecuencia, la celeridad y la
rapidez son los términos más adecuados para hablar del módulo de la velocidad, aunque en el ámbito de la
ciencia es común que las tres palabras sean tratadas como sinónimos.
En consecuencia, con los datos suministrados, podemos estructurar la siguiente Tabla.
Tabla 4: Rapidez media del vehículo
Tiempo Distancia recorrida Rapidez media
(hora) (kilómetros) (kilómetros/hora)
0 0 -
1/5 14.4 72
1/3 30.3 119.25
1/2 46.9 99.6
2/3 64.2 103.8
5/6 83.6 116.4
14/15 95.3 117

Quedarnos solo con el cálculo de la rapidez media para los intervalos de tiempo que tenemos es limitarnos
notablemente en el análisis de los datos. Tendremos en cuenta lo que expresamos en la introducción,
puntualmente las argumentaciones de Viso (2016), cuando comenta que al hacer los cálculos para tramos
más cortos, más se va a parecer la velocidad media con la instantánea. Pero ¿cómo logramos tener datos
para tramos más cortos? Una posibilidad nos lleva a establecer algún modelo funcional que nos permita

230
17. Estimación de la rapidez máxima alcanzada en ruta por vehículos

relacionar la distancia recorrida con el tiempo. Si logramos dar con un modelo apropiado, podremos hacer
cuentas para tramos más cortos.
Busquemos un modelo funcional que nos permita relacionar la distancia recorrida (que representaremos con
la letra 𝐷 y mediremos en kilómetros) con el tiempo transcurrido (denotado con 𝑡 y medido en horas).
Podríamos iniciar con un ajuste lineal, pero optamos por un polinómico de grado dos por tener un mejor
coeficiente de determinación (explica el 99.9% de la relación entre las variables) y, al mismo tiempo, describe
adecuadamente el fenómeno a modelizar.

Figura 4: Ajuste polinómico de grado 2 para relacionar distancia y tiempo

Con este modelo podemos calcular una nueva función que nos permita establecer la rapidez media. Para
ello, confeccionamos una tabla con la variable tiempo, con incrementos de ∆𝑡 = 0.1 ℎ𝑜𝑟𝑎, las respectivas
distancias recorridas y el cálculo de la rapidez media (Figura 5).

Figura 5: Hoja de cálculo para la rapidez media del vehículo

231
Marcel Pochulu

El modelo funcional que relaciona el tiempo con la rapidez media, para ∆𝑡 = 0.1 ℎ𝑜𝑟𝑎 queda representado
en la Figura 6, donde 𝑣 denota a la celeridad o rapidez media en 𝑘𝑚/ℎ.

Figura 6: Rapidez media para una variación de tiempo de 0.1 hora

Podríamos considerar intervalos de tiempo aún menor, como por ejemplo ∆𝑡 = 0.01 ℎ𝑜𝑟𝑎. La rapidez
media para este caso queda representado en la Figura 7.

Figura 7: Rapidez media para una variación de tiempo de 0.01 hora

Disminuir la variación de tiempo llevándola a valores prácticamente iguales a cero aporta elementos
relevantes para el análisis que no podemos desechar. En la Tabla 5 recopilamos esta información junto al
análisis final que estaríamos detectando. Omitimos las gráficas y planillas de cálculo asociadas a esta tabla.

232
17. Estimación de la rapidez máxima alcanzada en ruta por vehículos

Tabla 5: Rapidez media para diferentes variaciones de tiempo

Variación de tiempo (horas) Rapidez media (kilómetro/hora)

∆𝒕 = 𝟎. 𝟏 𝑣1 (𝑡) = 42.204𝑡 + 81.5378

∆𝒕 = 𝟎. 𝟎𝟏 𝑣2 (𝑡) = 42.204𝑡 + 83.4398

∆𝒕 = 𝟎. 𝟎𝟎𝟏 𝑣3 (𝑡) = 42.204𝑡 + 83.626898

∆𝒕 = 𝟎. 𝟎𝟎𝟎𝟏 𝑣4 (𝑡) = 42.204𝑡 + 83.6458898

∆𝒕 = 𝟎. 𝟎𝟎𝟎𝟎𝟏 𝑣5 (𝑡) = 42.204𝑡 + 83.64778898

∆𝒕 → 𝟎 𝑣(𝑡) = 42.204𝑡 + 83.648

El proceso de cálculo nos lleva a establecer una rapidez instantánea, la cual deducimos del comportamiento
general que tuvieron los valores numéricos. No obstante, la riqueza del análisis se vincula con el modelo
funcional que establecimos para relacionar la distancia y el tiempo. Aquí pueden surgir las primeras hipótesis
o estrategias para obtener una rapidez instantánea, cuando se conoce la relación entre distancia y tiempo, y
la misma es polinómica. Por lo pronto tendríamos:
1. La rapidez instantánea resulta ser un modelo polinómico que tiene un grado menor al de distancia
versus tiempo.
2. El término independiente del modelo polinómico de la rapidez instantánea es el coeficiente del
término lineal del modelo funcional que relaciona distancia con el tiempo.
3. El coeficiente del término lineal del modelo funcional de la rapidez instantánea es el doble del
coeficiente del término de segundo grado del modelo funcional de distancia versus tiempo. Dicho de
otra manera, resulta ser la multiplicación entre el exponente y el coeficiente principal del término
cuadrático de distancia versus tiempo.
Como podemos observar, la actividad nos permite deducir intuitivamente algunas reglas de derivación, sin
haber pasado por contenidos relacionados con límite, continuidad y derivadas en una variable.
Nos corresponde ahora validar el modelo. Si analizamos el modelo funcional asociado (lineal en este caso),
podemos advertir que la rapidez está aumentando progresivamente, lo cual no se corresponde con los
cálculos realizados en la Tabla 4. En los cálculos de rapidez media entre ciudades tenemos valores que van
creciendo y posteriormente decreciendo, para volver a crecer nuevamente.
Esto nos hace poner en duda el modelo que estamos proponiendo y como sabemos que el mismo está
asociado al que relaciona distancia con tiempo (polinómico de grado 2 en nuestro caso), vale la pena
revisarlo. A su vez, si el modelo hubiera sido apropiado, el movimiento tendría algunas características del
uniformemente variado, por aumentar la rapidez de la misma forma, aunque no estamos tratando con un
cuerpo que se mueve sobre una línea recta. Si simplificamos el problema, podemos pensar que la autopista
conforma un tramo de esa línea recta.
Otro aspecto relevante del análisis sucinto realizado hasta el momento es que el modelo funcional que
obtenemos de la rapidez guarda estrecha relación con el de distancia versus tiempo. En consecuencia, si
cambiamos el modelo de ajuste para la relación distancia versus tiempo por uno polinómico de grado 3, es
esperable que el de la rapidez versus tiempo sea de grado 2. Pero entonces, tampoco lograría describir
adecuadamente el comportamiento que tenemos de la rapidez (descripto numéricamente a través de la Tabla
4), el cual es más propio de una función polinómica de grado 3.
De todos modos haremos el análisis ajustando un polinomio de grado 3 para relacionar distancia y tiempo,
como se aprecia en la Figura 8.

233
Marcel Pochulu

Figura 8: Ajuste polinómico de grado 3 para relacionar distancia y tiempo

Si hacemos un estudio de los diferentes modelos funcionales ajustados para distintas variaciones de tiempo y
estimamos la tendencia, obtenemos los valores volcados en la Tabla 6.

Tabla 6: Rapidez media para diferentes variaciones de tiempo

Variación de tiempo Rapidez media (kilómetro/hora)


(horas)

∆𝒕 = 𝟎. 𝟏 𝑣1 (𝑡) = −71.4189𝑡2 + 115.25149𝑡 + 66.8865

∆𝒕 = 𝟎. 𝟎𝟏 𝑣2 (𝑡) = −71.4189𝑡2 + 108.82379𝑡 + 71.9871

∆𝒕 = 𝟎. 𝟎𝟎𝟏 𝑣3 (𝑡) = −71.4189𝑡2 + 108.1810𝑡 + 72.4759

∆𝒕 = 𝟎. 𝟎𝟎𝟎𝟏 𝑣4 (𝑡) = −71.4189𝑡2 + 108.1167𝑡 + 72.5246

∆𝒕 = 𝟎. 𝟎𝟎𝟎𝟎𝟏 𝑣4 (𝑡) = −71.4189𝑡2 + 108.1103𝑡 + 72.5294

∆𝒕 → 𝟎 𝑣(𝑡) = −71.4189𝑡 2 + 108.1096𝑡 + 72.53

Podemos notar que del análisis de la tabla emergen intuitivamente las reglas de derivación para función
polinómicas. En particular, podemos deducir que:
𝐷(𝑡) = 𝑎 ∙ 𝑡 𝑛 , 𝑛 ∈ ℕ ⇒ 𝑣(𝑡) = 𝑛 ∙ 𝑎 ∙ 𝑡 𝑛−1
Insistimos en que no es necesario que los alumnos dispongan de conocimientos del Cálculo Diferencial en
una variable, sino más bien permitirles que construyan las ideas a partir de la resolución de situaciones

234
17. Estimación de la rapidez máxima alcanzada en ruta por vehículos

problemáticas concretas. Graficamos ahora la función de rapidez media que obtenemos a partir de la función
polinómica de grado 3, la cual se representa en la Figura 9.

Figura 9: Rapidez instantánea asociada a Distancia versus tiempo de tercer grado

Tal como anticipábamos, el modelo polinómico de grado 2, para la rapidez en función del tiempo, no describe
adecuadamente lo que acontece en la Tabla 4. Analicemos ahora qué ocurre con un polinomio de grado 4
para ajustar la relación entre Distancia y tiempo (Figura 10). Omitimos el cálculo de la velocidad instantánea,
realizado con planilla de cálculo como mostramos anteriormente.

Figura 10: Rapidez y Distancia versus tiempo

La gráfica de la rapidez versus tiempo parecería describir lo que refleja la Tabla 4. No obstante, la rapidez
media para diferentes intervalos se mantiene por debajo de los valores promedios que habíamos calculado.

235
Marcel Pochulu

Al disponer de software, podemos hacer el cálculo para un ajuste polinómico de grado 6 para Distancia
versus tiempo, en tanto podemos anticipar que obtendremos un coeficiente de determinación igual a 1
(explica el 100% de las relaciones entre variables). Esto es lógico puesto que disponemos de 7 puntos en el
plano no alineados y, en consecuencia, existe un único polinomio de grado 6 que los interpola. La
representación gráfica de ambos modelos funcionales las tenemos en la Figura 11.

Figura 11: Rapidez y Distancia versus tiempo

Si prescindimos de los primeros momentos, donde la rapidez es negativa, la gráfica describe bastante bien lo
que aconteció con el viaje. Incluso los valores de velocidad se corresponden a los que tenemos registrados
del viaje que formó parte de la base de datos del problema. La realidad nos muestra que hubo momentos en
los cuales la rapidez del automóvil alcanzó los 130 km/h, como así también, instancias donde fue de 0 km/h,
pues hay una estación de peaje en el trayecto y se contó con un control policial.
Con la resolución del problema pusimos en juego nociones intuitivas del Cálculo Diferencial en una variable,
deducciones de reglas de derivación y mucha actividad matemática que se vio fortalecida por los nuevos
recursos. A su vez, obtener la rapidez del automóvil a partir de la función de distancia hace ver más natural la
expresión “derivada” usada en matemática, pues efectivamente hemos derivado u obtenido una función a
partir de otra.
17.4. Perspectivas de trabajo matemático con el problema
El problema puede ser profundizado en diferentes aspectos y dependerá de los propósitos que se haya
planteado el profesor. Podríamos disponer de las velocidades registradas por el velocímetro en el momento
que se tomó la medición de tiempo (envío de un mensaje de texto en nuestro caso). En consecuencia, el
desafío se encontrará en encontrar un modelo funcional que interpole los valores de distancia y los de
velocidades.
Podemos conseguir este modelo apelando a un polinomio de tal forma que interpole la distancia para valores
particulares de tiempo y su derivada (rapidez o celeridad en nuestro caso) con los valores de velocidad que
disponemos. Si bien este polinomio en matemática está asociado a los polinomios de Hermite, podemos
encontrarlo apelando a sistemas de ecuaciones lineales y nuevos recursos.
Por ejemplo, consideremos algunos valores del problema propuesto inicialmente con sus respectivas
velocidades (Tabla 7).

236
17. Estimación de la rapidez máxima alcanzada en ruta por vehículos

Tabla 7: Distancia recorrida y velocidad de un automóvil


Tiempo Distancia recorrida Velocidad
(hora) (kilómetros) (kilómetros/hora)
0 0 60
1/5 14.4 100
1/3 30.3 130
1/2 46.9 120

El polinomio que interpola los datos será de grado 7, en tanto es posible estructurar 8 ecuaciones lineales.
Cuatro ecuaciones surgen de sustituir tiempo y distancia en la función 𝐷 y las otras 4, por reemplazar tiempo
y velocidad en la función 𝑣, siendo las expresiones analíticas de ambas las siguientes:
𝐷(𝑡) = 𝑎7 𝑡 7 + 𝑎6 𝑡 6 + 𝑎5 𝑡 5 + 𝑎4 𝑡 4 + 𝑎3 𝑡 3 + 𝑎2 𝑡 2 + 𝑎1 𝑡 + 𝑎0
𝑣(𝑡) = 7𝑎7 𝑡 6 + 6𝑎6 𝑡 5 + 5𝑎5 𝑡 4 + 4𝑎4 𝑡 3 + 3𝑎3 𝑡 2 + 2𝑎2 + 𝑎1
El uso de nuevos recursos también nos permitiría filmar movimientos de desplazamientos de cuerpos para
posteriormente procesar datos y analizarlos. Incluso existen compañías de taxis que disponen de App donde
se pueden ver los recorridos y tiempos empleados, o los propios dispositivos GPS cuando nos desplazamos
entre coordenadas previamente fijadas. Estas propuestas, que pueden estar muy ligadas al campo de la
física, tienen una enriquecedora actividad matemática y logran dar mayor protagonismo a los estudiantes en
la construcción de conocimientos matemáticos y, al mismo tiempo, trabajar con otras disciplinas.
17.5 Referencias bibliográficas
García, C. (2017). Los 8 excesos de velocidad más graves de Europa. Autocasión. Disponible en
https://www.autocasion.com/actualidad/reportajes/los-8-excesos-de-velocidad-mas-graves-de-europa.
Infobae (16 de mayo de 2016). La verdadera velocidad de su auto. Disponible en
https://www.infobae.com/2006/05/16/255161-la-verdadera-velocidad-su-auto/
Viso, E. (2016). La velocidad real del coche, ¿es la del velocímetro? Diariomotor para Ford. Disponible en:
https://www.diariomotor.com/espacio-ford/2016/08/10/la-velocidad-real-del-coche-es-la-del-velocimetro/

237
18. Intensidad del entrenamiento físico y estimación del umbral anaeróbico

18
Intensidad del entrenamiento físico y
estimación del umbral anaeróbico

Marcel Pochulu
18.1. Introducción
Las cintas de correr junto con las bicicletas elípticas y las bicicletas estáticas se han convertido en las
máquinas más utilizadas por los amantes del gimnasio. Además, entrenar en una cinta de correr se utiliza
desde hace tiempo como una táctica para iniciarse en las actividades cardiovasculares, mantenerse en
forma, perder peso o como entrenamiento de intervalos claves para corredores. De todos modos, correr en la
calle no es lo mismo que correr en cinta en un gimnasio, pues la resistencia al viento, la variedad del terreno,
la distracción visual, la quema de calorías o incluso la postura natural al correr no es la misma.
Diferentes sitios recomiendan la cintas de correr, porque requiere un menor uso de las articulaciones (se
disminuyen los choques contra el suelo y por lo tanto, los riesgos de lesiones en tendones y ligamentos),
mejora la capacidad respiratoria y cardiovascular, aumenta la fuerza de las piernas y el metabolismo, entre
otras ventajas. Evidentemente que correr en cinta tiene sus ventajas. El ritmo es constante, los tiempos son
mejores ante el rodamiento de la máquina y el clima no se convierte en un obstáculo para salir a correr.
Además, se puede utilizar la inclinación de la máquina y las tablas de equivalencias para conseguir números
algo más reales.
Una de las dudas más frecuentes que se nos puede presentar, pero sumamente válida es ¿a qué velocidad
correr en una cinta? Seguramente la primera respuesta ingenua sería a la velocidad que nos sentimos
cómodos. Además, depende de los resultados que queremos obtener y de las capacidades que cada uno
tenemos, pues cada persona tiene un ritmo al cual la quema de calorías es máxima, siendo la velocidad uno
de los principales factores (Burfoot, 2010).
Dando una respuesta más técnica, la velocidad en la cinta debería equiparar el gasto energético, el tiempo a
la fatiga y acumulación de lactato con una carrera en terreno llano (Olcina, Muñoz y Robles, 2013). Para ello
sería necesario realizar mediciones de la intensidad del entrenamiento, resistencia física (capacidad que

239
Marcel Pochulu

tenemos de soportar físicamente un esfuerzo y la de recuperarnos lo más rápidamente posible), entre otros
aspectos de las características físico-deportivas de la persona.
Pero adentrémonos un poco en lo que acontece al realizar esta actividad física. Martín (2017) explica que
durante la actividad física el consumo de oxígeno se eleva gradualmente y más aún si aumenta la intensidad
del mismo. Las células musculares comienzan a demandar más energía que la generada por el cuerpo y
convierten el almidón y el azúcar en un producto químico más simple llamada piruvato. Sin embargo, llega un
punto en el que ante un mayor esfuerzo no se produce una subida en el consumo de oxígeno. En este
momento se alcanza el límite fisiológico de máximo consumo de oxígeno, donde la mayoría del piruvato opta
por la vía anaeróbica y produce un desecho llamado lactato o ácido láctico. El lactato es expulsado de la
célula y se adhiere a los músculos, provocando una sensación de dolor similar a agujas, donde los músculos
queman y la respiración aumenta significativamente su frecuencia (hiperventilación), que nos obliga a parar.
Cuanto mayor sea este esfuerzo, mayor será la producción de lactato hasta que llegamos a un punto en el
que el ácido láctico es tanto que disminuye el rendimiento de manera drástica. Ese momento es el umbral
anaeróbico y coincide con el punto máximo de pulsaciones de nuestro corazón (Martínez López, 2002). El
objetivo de todo deportista de resistencia es poder llegar a controlar ese umbral anaeróbico para estar el
máximo tiempo posible muy cerca del mismo pero por debajo, sin llegar a superarlo. Cabe destacar que el
umbral anaeróbico es muy mejorable con el entrenamiento.
Pero ¿cómo llegamos a conocer este umbral anaeróbico? Martínez López, Moral & Cachón (2009) expresan
que existen infinidad de test que pueden ayudar en este sentido, pero que estas prácticas suelen ser
incomprendidas y criticadas por algunos sectores, que no encuentran una razón que justifique plenamente el
tiempo empleado en su aplicación.
En Conconi, Ferrari, Ziglio, Droghetti & Codeca (1982) se describe una técnica para la determinación del
umbral anaeróbico a través de un método indirecto. Esta técnica, denominada test de Conconi, evalúa los
cambios de la frecuencia cardíaca con relación a la capacidad de rendimiento aeróbico y logra determinar la
intensidad de entrenamiento para el deportista. El mismo consiste en realizar un esfuerzo de intensidad
progresiva controlando la frecuencia cardiaca en función del aumento de la velocidad. Cuando se llega al
momento en que la frecuencia cardíaca se estabiliza a pesar de seguir en aumento la intensidad de la
actividad, estaríamos en el umbral anaeróbico (Figura 1).

Figura 1: Curva de Frecuencia Cardíaca versus velocidad del test de Conconi

240
18. Intensidad del entrenamiento físico y estimación del umbral anaeróbico

La facilidad de aplicación y ejecución del método lleva a estimar el valor del umbral anaeróbico a través de la
frecuencia cardíaca y sin necesidad de extraer sangre de la persona (Martínez López, 2002). Valladoro
(2010) también expresa que es un test práctico y fácil de adaptar al atletismo, ciclismo o natación, pues
resulta confiable y con un aceptable grado de correlación55.
El trabajo desarrollado por Ortíz, Rentería y Yepes (2000) con 20 adolescentes de 12 a 14 años a quienes se
les determinó el umbral anaeróbico en cinta de correr mediante el método de Conconi, y tres días más tarde
mediante la medición de lactato sanguíneo, mostró que existe equivalencia entre ambos test. Por
consiguiente, con el estudio se muestra que el test de Conconi es válido como alternativa en poblaciones que
por la edad u otras circunstancias no permiten el método invasivo.
¿Por qué sería importante conocer este umbral? Valladoro (2010) explica que un corredor, por ejemplo, no
podría correr a su máxima velocidad todo el tiempo, pues no solo se agotaría en minutos, sino que se
generaría demasiado ácido láctico que le impediría continuar. En consecuencia, mientras no sobrepase el
umbral anaeróbico, el ácido láctico se mantiene en una relación de equilibrio entre lo que se produce y lo que
se renueva. Cuanto mejor es su habilidad de reutilizar el lactato, mejor será la tolerancia a correr a ritmos
rápidos. Esto nos dice que la meta de un corredor será entrenar para elevar ese umbral y poder correr lo más
rápido posible.
En este contexto nace nuestra situación problema y proponemos la siguiente consigna:
Determinar el umbral anaeróbico de un sujeto a través de los cambios de la frecuencia cardíaca para valorar
la capacidad de rendimiento aeróbico y establecer la intensidad del entrenamiento. Fundamentar la respuesta
a través de un estudio de caso con datos experimentales, en lugar de buscar la información en Internet.

18.2. Contextualización de la situación problema


Sin pretender ser exhaustivos, hacemos una breve síntesis de los métodos y técnicas que permiten calcular
los umbrales de entrenamiento (umbral aeróbico y umbral anaeróbico). Vázquez (2016) y Arratibel (2013)
realizan una recopilación de los métodos más usados, entre los cuales tenemos:
Umbral por la escala de percepción subjetiva de fatiga o cálculo teórico. Se determina la frecuencia
cardíaca máxima (𝐹𝑐𝑚á𝑥 = 220 − 𝑒𝑑𝑎𝑑) y se asigna el 75% de ella para el umbral aeróbico y el 85%
para el umbral anaeróbico. También se puede hacer el cálculo a través de porcentajes sobre la velocidad
aeróbica máxima. Hay que tener en cuenta que estos valores no son iguales para cada persona y que no
todos tendrán sus umbrales a un 75% y 85% debido a que dependerá del tipo de persona, su condición
física, tipo de entrenamiento que realice, etc.
En términos generales se sabe que el umbral láctico se encuentra tan bajo como al 70% de la frecuencia
cardíaca máxima en personas no entrenadas y puede subir hasta el 90%, cuando se está bien entrenado.
Este método teórico no es individualizado, sino estandarizado para diferentes edades.
Una alternativa al cálculo anterior es la Fórmula de Karvonen:
𝐹𝐶 Ó𝑝𝑡𝑖𝑚𝑎 = (𝐹𝐶𝑚á𝑥 − 𝐹𝐶𝑚í𝑛) ∙ % 𝑑𝑒 𝑖𝑛𝑡𝑒𝑛𝑠𝑖𝑑𝑎𝑑 𝑑𝑒𝑠𝑒𝑎𝑑𝑎 + 𝐹𝐶𝑚í𝑛
Por ejemplo, si tenemos una persona con 20 años, con una frecuencia cardíaca máxima de 200 ppm, mínima
de 70 ppm y quiere una intensidad de entrenamiento del 85%, entonces:
𝐹𝐶 Ó𝑝𝑡𝑖𝑚𝑎 = (200 − 70) ∙ 0.85 + 70 = 180.5
Umbral láctico o metabólico. Se efectúan mediciones de ácido láctico mediante tiras reactivas e
instrumentos para análisis de lactato en sangre. El modo ideal de hacer el test es tomar muestras cada cierto
tiempo durante una carrera en cinta, de manera protocolizada, a medida que se sube la intensidad del test.
Se va registrando la frecuencia cardíaca en cada momento como los datos de las muestras de lactato

55Por otra parte, Valladoro (2010) también remarca que existen detractores del Test de Conconi por tratarse de un método indirecto
que ofrece un margen de error importante. Se esgrime que la frecuencia cardíaca tiene limitaciones cuando se aplica a la intensidad
de un ejercicio específico, una sesión de entrenamiento en general, o un programa de entrenamiento.

241
Marcel Pochulu

sanguíneo cada minuto o minuto y medio. Con los datos obtenidos de la prueba se buscan los dos puntos de
inflexión que nos van a marcar los dos umbrales.
Umbral de frecuencia cardíaca. Se usa solamente para calcular el umbral anaeróbico. Para el test se
requiere tomar la frecuencia cardíaca y hacer un esfuerzo incremental, como por ejemplo, correr en una cinta
o pedalear en una bicicleta y hacerlo cada vez más rápido (o medir su velocidad). Posteriormente se analizan
los valores de la frecuencia cardíaca hasta que llega a un punto donde hace una pequeña curva. Se busca
ese punto de inflexión y esa será la frecuencia cardíaca del umbral anaeróbico.
Umbral ventilatorio. El deportista es colocado en una cinta de correr de velocidad controlable y con una
mascarilla conectada a un analizador de gases. Se lo somete a una prueba de esfuerzo creciente. A medida
que aumenta el esfuerzo, aumentará el consumo de oxígeno, pero llegará el momento en que a pesar de
aumentar progresivamente el esfuerzo, no aumentará el consumo de oxígeno. El principio del test se basa
precisamente en que se producen cambios en la frecuencia respiratoria y coinciden con los umbrales.
18.3. Aproximaciones matemáticas al problema
Para dar inicio a la resolución del problema debemos recopilar datos experimentales y para ello será
necesario contar con alguien dispuesto a realizar la prueba de actividad física. Preferentemente tendría que
ser una persona entrenada y/o acostumbrada a correr. Apelaremos al test de Conconi, por permitirnos
estimar un umbral de manera indirecta, sin tener que recurrir a sofisticados aparatos o realizar pruebas de
sangre. A su vez, tendremos que disponer de una cinta de correr que nos pueda suministrar valores referidos
a la velocidad y la frecuencia cardíaca.
En caso de que la cinta de correr no registre la frecuencia cardíaca, requeriremos de un pulsómetro.
Un pulsómetro es un dispositivo de precisión, digital y electrónico, que permite al usuario medir su frecuencia
cardíaca en tiempo real. Con el avance de la tecnología, cada vez son más frecuentes los pulsómetros de
una única unidad (suelen tener formato reloj) que además de los datos como velocidad, distancia, altimetría y
demás, recepciona las pulsaciones.
Los datos que recopila la Tabla 1 corresponden a los registros que efectuamos del entrenamiento de una
persona de 18 años. Después de haber realizado un calentamiento completo (10 minutos) dimos comienzo al
test. Iniciamos con una velocidad de 10 km/h y cada 200 metros recorridos, incrementamos la misma en 0.5
km/h. Tomamos nota de la frecuencia cardíaca que acusaba el tablero de la cinta de correr en cada caso.
Tabla 1: Velocidad y frecuencia cardíaca al correr en cinta
Velocidad (km/h) Frecuencia Cardíaca (ppm)
10.0 134
10.5 136
11.0 140
11.5 141
12.0 144
12.5 149
13.0 152
13.5 155
14.0 159
14.5 161
15.0 164
15.5 167
16.0 170
16.5 172
17.0 173
17.5 175
18.0 177
18.5 178

242
18. Intensidad del entrenamiento físico y estimación del umbral anaeróbico

Si bien realizamos la experiencia sobre cinta de correr por la practicidad que tiene, se podría haber empleado
el protocolo para carrera propuesto en los fundamentos del mismo test de Conconi. En este caso, Conconi,
Ferrari, Ziglio, Droghetti & Codeca (1982) relatan que la prueba consiste en correr de 8 a 12 vueltas en una
pista de atletismo de 400 metros e incrementar la velocidad cada 200 metros hasta llegar al agotamiento.
Para ello se parte de una velocidad inicial de 12 a 14 km/h y se va disminuyendo el tiempo entre 2 a 3
segundos cada 200 metros. Se registra la frecuencia cardíaca y los tiempos parciales en cada etapa de 200
metros. El test finaliza cuando no se logre disminuir el tiempo empleado en el último tramo de 200 metros.
Teniendo los datos experimentales, que es la parte central del problema, solo queda por realizar una gráfica
(Figura 2), en donde advertimos la deflexión de la frecuencia cardíaca, que corresponde a las 170 ppm en
este caso.

Figura 2: Curva de Frecuencia Cardíaca versus velocidad del test de Conconi para un sujeto en particular

Podemos observar que la relación entre frecuencia cardíaca y velocidad obtenida en la prueba fue en parte
lineal y en parte curvilínea, lo cual se corresponde con lo descripto por Conconi, Ferrari, Ziglio, Droghetti &
Codeca (1982). Si calculamos el umbral anaeróbico de manera teórica tendríamos:
𝑈𝑚𝑏𝑟𝑎𝑙 𝑎𝑛𝑎𝑒𝑟ó𝑏𝑖𝑐𝑜 = 𝐹𝐶𝑚á𝑥 ∙ 0.85
𝑈𝑚𝑏𝑟𝑎𝑙 𝑎𝑛𝑎𝑒𝑟ó𝑏𝑖𝑐𝑜 = (220 − 18) ∙ 0.85
𝑈𝑚𝑏𝑟𝑎𝑙 𝑎𝑛𝑎𝑒𝑟ó𝑏𝑖𝑐𝑜 = 171.7
Este valor resulta bastante razonable con el que obtuvimos para la prueba que realizamos.
18.4. Perspectivas de trabajo matemático con el problema
El trabajo con umbrales anaeróbicos siguiendo el test de Conconi puede ampliarse a otras actividades
físicas, como por ejemplo ciclismo y natación. Si bien existen muchas adaptaciones de este test, tendríamos
para estas dos actividades deportivas los siguientes protocolos:
- Ciclismo: Se realiza un calentamiento de 10 a 15 minutos. Posteriormente se comienza a pedalear a
20 km/h, aumentando la velocidad en 2 km/h cada 45 segundos. Se registran las pulsaciones en
cada cambio de velocidad y la prueba termina hasta que el ciclista no pueda más y sienta
agotamiento.

243
Marcel Pochulu

- Natación: Se realiza de forma progresiva sobre un parcial de 50 metros, siendo la velocidad inicial
de 3 km/h. Luego se registran las frecuencias cardíacas con base en el tiempo empleado durante
tres ciclos entre los 30 y 40 metros de cada parcial (Camarero, Tella y Fister, 1998).
A su vez, cabe hacer comparaciones entre personas entrenadas y quienes no lo están para una misma
actividad deportiva.
18.5. Referencias bibliográficas
Arratibel, I. (2013). Comparación de diferentes métodos para el cálculo del umbral anaeróbico individual y su
equivalencia con el máximo estado estable (tesis doctoral). Universidad del País Vasco, Vizcaya,
España.
Burfoot, A, (2010). Complete book of running: Everything you need to run to weight loss, fitness, and
competition. New York, United Stated of America: Runner’s World.
Camarero, S.; Tella, V. y Fister, M. A. (1998). Natación: Umbral anaeróbico y frecuencia de ciclos en
crolistas. En: Actas del Congreso Internacional de intervención en conductas motrices significativas
(pp. 57-67). Coruña, España: Universidade da Coruña.
Conconi, F.; Ferrari, M.; Ziglio, P.; Droghetti, P. & Codeca, L. (1982). Determination of the anaerobic threshold
by a non invasive field test in runners. Journal of Applied Physiology, 52(4), 869-873.
Martín, M (2917). Metabolismo muscular en el ejercicio (tesis de grado). Universidad de Salamanca, España.
Martínez López, E. (2002). Pruebas de aptitud física. Barcelona, España: Paidotribo.
Martínez López, E.; Moral, J. & Cachón, J. (2009). The physical aptitude tests as the core of the physical condition
assessment. Comparative analysis of the students’ and teachers’ opinion in secondary education. The
International Journal of Medicine and Science in Physical Education and Sport, 5(1), 25-48.
Olcina, G.; Muñoz, D. y Robles, C. (2013). Evaluación fisiológica en la actividad física y en el deporte. Sevilla,
España: Wanceulen S.L.
Ortíz, O.; Rentería, C. y Yepes, H. (2000). Test de Conconi como método de evaluación no invasivo del
umbral anaeróbico en adolescentes. En A. Niño Rey (Ed.), Acta Colombiana de Medicina del
Deporte, 7(1), 1-10. Cali, Colombia: Asociación Colombiana de Medicina del Deporte de Colombia
Valladoro, E. (2010). El test de Conconi. Entrenamiento deportivo. Disponible en
https://entrenamientodeportivo.wordpress.com/2010/05/25/el-test-de-conconi/
Vázquez, J. (2016). Cómo calcular los umbrales de entrenamiento. Planeta Triatlón, 1-2. Disponible en
http://www.planetatriatlon.com/calcular-los-umbrales-entrenamiento/

244
19. Distribución, logística y entrega de productos y mercaderías

19
Distribución, logística y entrega de
productos y mercadería

Marcel Pochulu
19.1. Introducción
Todos estaríamos de acuerdo en aceptar que el tiempo es el recurso más valioso que tenemos, pues es
irrecuperable y solo se lo puede gastar, a diferencia del dinero que si se pierde lo podemos recuperar. La
vida de una empresa u organización gira en torno al tiempo. Se contratan servicios por hora, las retribuciones
a los empleados se hacen mensualmente, se pagan impuestos periódicamente, entregamos servicios y
productos cada cierta cantidad de días, etc. Cualquier actividad que se nos ocurra pensar tiene una relación
directa con el tiempo y hasta podríamos decir que es el responsable de los beneficios de una empresa.
Desarrollar rápidamente nuevos productos, producirlos con mayor celeridad y distribuirlos eficazmente suele
ser clave para un negocio o empresa, pues un cliente no tiene paciencia y quiere su producto “ya”, de lo
contrario, lo comprará en la competencia.
En consecuencia, el tiempo resulta un factor de suma importancia en la distribución y entrega de productos y
mercaderías. Existen muchos costos asociados con una entrega tardía que van desde multas o reducción en
los pagos, hasta perder un cliente y todo su consumo. De allí que la logística, administración logística o
ingeniería logística cubre la gestión y planificación de todas las actividades que se realizan en los
departamentos de compras, producción, transporte, almacenaje, manutención y distribución de una empresa
u organización. En particular, en la logística recae la función que permite efectuar el traslado de los productos
finales y los pone a disposición del cliente, administrando eficazmente la cadena de suministro. El canal de
distribución es el que posibilita que el usuario obtenga el producto en el lugar, tiempo y cantidades
adecuadas.
En la logística aparecen los problemas de distribución física de productos y mercaderías, donde hay que
asignar de manera óptima una ruta a cada vehículo de una flota. Los clientes se localizan en determinados

245
Marcel Pochulu

lugares y a su vez pueden presentar horarios de recepción determinados. El desafío se encuentra en


establecer secuencias de clientes y programar los horarios de reparto de manera óptima.
Yepes (2002) advierte que para establecer adecuadamente una programación de rutas de distribución,
intervienen factores como el tamaño y tipo de flota, cantidades de almacenes o depósitos, naturaleza de la
demanda recibida de los clientes, localización física del lugar de reparto, restricciones horarias de servicio,
ciclos del servicio, capacidad y velocidad del vehículo, entre muchos otros más. Para hacer más evidente la
problemática comenta que tendríamos 8.8 ∙ 109 tipos de problemas de distribución (surgen de aplicar el
principio multiplicativo a los factores que intervienen), y si un sujeto los describiera a cada uno en un
segundo, tardaría cerca de 280 años para enunciarlos a todos. La planificación y la gestión de las redes de
distribución exigen, por lo tanto, la disposición de técnicas eficientes de optimización de rutas.
Entonces ¿cómo hacemos para abordar un problema de distribución óptima de productos? La clave está en
simplificar el problema, apelar en ocasiones a la experiencia de errores anteriores y recurrir a un grupo
reducido de modelos teóricos que nos ayudan para la toma de decisiones, de lo contrario la planificación se
tornaría en una tarea altamente compleja.
En este contexto nace nuestra situación problema y proponemos la siguiente consigna:
Proponer estrategias para determinar la ruta de distribución óptima para un producto o mercadería destinada
a un un grupo de clientes. Fundamentar la respuesta a través del estudio de casos con datos reales o de una
realidad inventada, en lugar de buscar la información en Internet. Se entiende que la estrategia tiene que ser
válida para otros casos que se propongan y no solamente para el que se consideró como caso particular.

19.2. Contextualización de la situación problema


La situación que proponemos se relaciona con teoría de grafos y, en particular, con el problema del cartero
chino, problema del circuito del cartero, o problema de la inspección y selección de rutas, el cual nos lleva a
encontrar el camino más corto o circuito cerrado que visite cada arista de un grafo conexo no dirigido. Cabe
señalar que no es intención desarrollar teoría de grafos con los estudiantes y, mucho menos, que dispongan
de este conocimiento para abordar la situación problema. El propósito de la actividad conlleva a poner en
juego estrategias y heurísticas para realizar una primera aproximación matemática al problema y, por ende, a
la teoría de grafos y algoritmos de búsqueda.
El “problema del cartero chino” (o chinese postman problem, cuya denomicación se adjudica a Alan Goldman
del National Institute of Standards and Technology de EEUU) fue estudiado originalmente en 1962 por el
matemático chino Mei-Ko Kwan (nacido en 1934 en Shanghai), quien precisamente era cartero. Podemos
tener las siguientes generalizaciones:
- El camino más corto desde un origen fijo;
- El camino más corto con un destino o punto final determinado;
- El camino más corto entre todos los puntos.
Se disponen de diferentes algoritmos para hallar un camino de longitud mínima, entre los que se destacan:
- Dijkstra: resuelve el problema de los caminos más cortos desde un único punto origen hasta todos
los otros.
- Bellman-Ford: resuelve el problema de los caminos más cortos desde un origen permitiendo que la
ponderación sea negativa.
- Algoritmo de Búsqueda A* (pronunciado "A asterisco" o "A estrella"): resuelve el problema de menor
costo o distancia entre un nodo origen y uno objetivo, siempre y cuando se cumplan unas
determinadas condiciones
- Algoritmo de Floyd-Warshall: resuelve el problema de los caminos más cortos entre todos los nodos.
- Algoritmo de Johnson: resuelve el problema de los caminos más cortos entre todos los nodos y es
más rápido en grafos de baja densidad.

246
19. Distribución, logística y entrega de productos y mercaderías

- Algoritmo de Viterbi: resuelve el problema del camino estocástico más corto con un peso
probabilístico adicional en cada nodo.
En nuestro caso solo abordaremos uno de ellos, por considerarlo el que intuitivamente emplean los
estudiantes y corresponde al algoritmo de Dijkstra o algoritmo de caminos mínimos. Debe su nombre al
científico en computación holandés Edsger Dijkstra56 (1930-2002), quien lo describió por primera vez en
1959. La estrategia subyacente en este algoritmo consiste en ir explorando todos los caminos más cortos que
parten del vértice origen y que llevan a todos los demás (Figura 1).
Cuando se obtiene el camino más corto desde el vértice origen al resto de vértices que componen el grafo, el
proceso se inicia, pero tomando como origen al segundo vértice. Cuando se analizaron todos los vértices de
este modo, se logra el camino mínimo buscado.

Figura 1: Algoritmo de Dijkstra

Calcular la ruta óptima con el algoritmo de Dijkstra va a suponer, en nuestro caso, que el estado del enlace
entre puntos o nodos viene determinado por una métrica y, por lo tanto, estará asociado a un valor numérico.
Una ruta vendrá determinada por la suma de todas las métricas de todos los enlaces por los que se pase, y
será óptima cuando sea menor la métrica calculada.
19.3. Aproximaciones matemáticas al problema
Muchos problemas de la vida cotidiana se pueden expresar, e incluso resolver, en forma de grafo y no se
requiere de este conocimiento por parte de los estudiantes, pues resulta muy intuitivo. Para iniciar con la
resolución del problema tendremos que proponer un recorte o simplificación del mismo, lo cual no es tarea
menor. En nuestro caso, asumimos las siguientes hipótesis:

56 En la biografía en español que presenta Wikipedia se expone: “Aunque parezca irónico, Dijkstra, uno de los mayores
desarrolladores del software de su época, evitó el uso de computadores en su trabajo durante décadas. Cuando, finalmente,
sucumbió a la tecnología, únicamente utilizó los ordenadores para enviar correos electrónicos y hacer búsquedas en la red. Dijkstra
nunca utilizó un computador para realizar ninguno de sus trabajos, todos ellos fueron realizados a mano”.

247
Marcel Pochulu

- No existen restricciones horarias para la descarga de productos y mercaderías en los locales. En


determinadas localidades existen ordenanzas que reglamentan los horarios de carga y descarga de
camiones en la vía pública.
- No existen retardos en la circulación por las calles debido al tráfico vehicular, o el mismo es
aceptable.
- Un mismo camión de reparto abastece a varios locales. Dependiendo del producto, podríamos tener
una carga destinada solo a un local, razón por la cual no tiene sentido establecer la ruta más corta
para cubrir el reparto, donde la misma se obtiene por GPS o un análisis sencillo de trayectorias.
- Nos interesa que el recorrido sea mínimo tomando un punto de origen, sin importar el punto final.
Fijadas las condiciones iniciales, tomamos la decisión de abastecer de un producto a los supermercados de
una ciudad. La búsqueda de supermercados resulta relativamente sencilla porque se puede hacer a través
de Google Maps, donde aparecen la mayoría de ellos y quedará por decidirse si trabajar con algunos o todos.
En nuestro caso hemos tomado 8 supermercados de la ciudad de Villa María (Córdoba, Argentina) que
identificamos con una chincheta, chinche o tachuela de color rojo (Figura 2), e indicamos con los números del
1 al 8. En color azul y con el número 0, marcamos nuestro punto de origen.

Figura 2: Punto de origen y de reparto del producto en el mapa de la ciudad


Queda ahora por determinar las distancias que existen entre los puntos seleccionados. Podríamos quedarnos
solo con algunas (las más cercanas a un nodo dado) y apelando a nuestro sentido común. No obstante, este
criterio no nos llevará a tener la certeza de que consideramos todas las posibilidades. Además, la posición en
el plano entre dos puntos no necesariamente guarda correspondencia con el recorrido que efectivamente hay
que realizar. Podemos tener puntos que parecen tener iguales recorridos, como ir del punto 0 al 1 o del 0 al
2, y sin embargo se requieren 3.1 km para el primer caso y 1.8 km para el segundo.
Si recurrimos al análisis combinatorio, la cantidad de recorridos que tenemos que determinar entre 9 puntos
9!
del plano son 36, puesto que 𝐶9,2 = 7!∙2! = 36.
Los recorridos los obtenemos con facilidad a través de Google Maps. Además, al buscar una ruta para llegar
de A a B, normalmente Google Maps responde con varias alternativas, diferenciando entre tipos de vías por
las que hay que pasar y, por tanto, hay diferencias de tiempo y distancias. En la imagen de la Figura 3
podemos ver que disponemos inicialmente de dos rutas con recorridos equivalentes en distancia y tiempo, no
así con la tercera alternativa.

248
19. Distribución, logística y entrega de productos y mercaderías

Figura 3: Rutas alternativas que propone Google Maps


En nuestro caso anotamos la ruta más rápida y consignamos en la Tabla 1 tanto los recorridos (en km) como
los tiempos aproximados (en minutos) que tendríamos para recorrerla. Cabe destacar que solo registramos
los recorridos en un sentido, pues la dirección y sentido de calles y avenidas hace que difiera viajar de A a B
o de B a A. Dado que la diferencia no era significativa, omitimos indicarla en algunos casos.
Si queremos calcular las distancias recorridas para todas las alternativas posibles de viajes que tenemos, no
podríamos hacerlo con lápiz y papel, puesto que son 40320. El cálculo se logra por principio multiplicativo, en
tanto si salimos del punto 0 tenemos 8 alternativas de visitas a un supermercado. De allí tendríamos 7 a los
restantes sin visitar y así continuamos hasta el último supermercado. Esto es:
𝐶𝑎𝑛𝑡𝑖𝑑𝑎𝑑 𝑝𝑜𝑠𝑖𝑏𝑙𝑒 𝑑𝑒 𝑣𝑖𝑎𝑗𝑒𝑠 = 8 ∙ 7 ∙ 6 ∙ 5 ∙ 4 ∙ 3 ∙ 2 ∙ 1 = 40320
Tabla 1: Recorridos entre los diferentes puntos de reparto

0 1 2 3 4 5 6 7 8
3.1 km 1.8 km 1.8 km 2.4 km 2.2 km 2.9 km 3.5 km 4.7 km
0 0
8 min 5 min 4 min 6 min 5 min 7 min 10 min 12 min
3.1 km 2.3 km 3.2 km 1.8 km 3.3 km 3.3 km 2.6 km 3.5 km
1 0
8 min 6 min 9 min 5 min 9 min 8 min 8 min 10 min
1.8 km 2.3 km 1 km 1.6 km 1.3 km 1.5 km 2.5 km 3.7 km
2 0
5 min 6 min 3 min 4 min 4 min 4 min 8 min 10 min
1.8 km 3.2 km 1 km 2 km 0.8 km 1.6 km 3.2 km 4.3 km
3 0
4 min 9 min 3 min 5 min 3 min 5 min 9 min 11 min
2.4 km 1.8 km 1.6 km 2 km 1.4 km 1.4 km 1.7 km 2.9 km
4 0
6 min 5 min 4 min 5 min 4 min 4 min 5 min 8 min
2.2 km 3.3 km 1.3 km 0.8 km 1.4 km 0.4 km 2.8 km 3.5 km
5 0
5 min 9 min 4 min 3 min 4 min 1 min 7 min 9 min
2.9 km 3.3 km 1.5 km 1.6 km 1.4 km 0.4 km 2.4 km 3.1 km
6 0
7 min 8 min 4 min 5 min 4 min 1 min 6 min 8 min
3.5 km 2.6 km 2.5 km 3.2 km 1.7 km 2.8 km 2.4 km 1.2 km
7 0
10 min 8 min 8 min 9 min 5 min 7 min 6 min 3 min
4.7 km 3.5 km 3.7 km 4.3 km 2.9 km 3.5 km 3.1 km 1.2 km
8 0
12 min 10 min 10 min 11 min 8 min 9 min 8 min 3 min

249
Marcel Pochulu

Evidentemente tendremos que indagar otra estrategia de búsqueda o sino, apelar a un software que nos
ayude con el cálculo. En nuestro caso prescindiremos de programas computacionales para búsquedas y
pondremos en juego estrategias más intuitivas. Comencemos con ellas.
Estrategia 1: Escogemos el recorrido más corto que une dos supermercados. En nuestro caso corresponde
a 0.4 km que es el recorrido entre los supermercados 5 y 6. Posteriormente escogemos el siguiente recorrido
más corto. En nuestro caso es de 0.8 km y une los supermercados 5 y 3. Así continuamos el proceso con la
condición que anexaremos un nuevo recorrido si: (a) incorpora un nuevo supermercado, o (b) une dos
supermercados no visitados, o (c) une dos supermercados ya visitados pero están en esquemas de repartos
diferentes (subgrafos). Esto es, si el recorrido más corto que encontramos une dos supermercados ya
visitados, lo descartamos y seguimos con el próximo, a excepción que esté uniendo dos esquemas disjuntos
de reparto que relacionan visitas a diferentes supermercados, o son dos supermercados no visitados.
Bajo este procedimiento tendríamos que contar 8 recorridos en tanto buscamos conectar 9 nodos (8
supermercados y 1 depósito central). Así habría quedado un primer borrador del esquema de reparto (Figura
4), donde no colocamos la ruta a seguir, sino que esquematizamos con un segmento que une dos puntos y la
distancia a recorrer. Notemos que las distancias marcadas no corresponden a distancia entre dos puntos,
sino a la longitud de la ruta seguida, la cual tiene en cuenta sentido de calles y avenidas, puentes,
subniveles, etc.

Figura 4: Borrador del esquema de recorrido

Para que el esquema quede conformado como un recorrido tenemos que evaluar las siguientes alternativas:
- Del punto 0 vamos al 1 (3.1 km) en lugar de hacerlo al 2, o
- Eliminamos el recorrido de 2 a 1 y agregamos el recorrido de 8 a 1 (3.5 km)
Si calculamos ambos recorridos para cada una de las opciones tenemos:
𝑅𝑇1 = 3.1 𝑘𝑚 + 2.3 𝑘𝑚 + 1 𝑘𝑚 + 0.8 𝑘𝑚 + 0.4 𝑘𝑚 + 1.4 𝑘𝑚 + 1.7 𝑘𝑚 + 1.2 𝑘𝑚 = 11.9 𝑘𝑚
𝑅𝑇2 = 1.8 𝑘𝑚 + 1 𝑘𝑚 + 0.8 𝑘𝑚 + 0.4 𝑘𝑚 + 1.4 𝑘𝑚 + 1.7 𝑘𝑚 + 1.2 𝑘𝑚 + 3.5 𝑘𝑚 = 11.8 𝑘𝑚

250
19. Distribución, logística y entrega de productos y mercaderías

Por una cuestión de métrica resulta más conveniente la segunda opción, quedando el recorrido conformado
como lo presenta la Figura 5, con 11.8 km en total.

Figura 5: Esquema de recorrido de supermercados para la estrategia 1

Si tenemos que regresar al punto de partida, habría que anexar 3.1 km y habríamos recorrido 14.9 km.
Estrategia 2: consiste en ir explorando todos los caminos más cortos que parten del vértice origen “0” y que
llevan a todos los demás (1.8 km en este caso y hacia el supermercado 2 o al supermercado 3, como puede
verse en la Figura 6). Luego iniciamos el proceso pero desde el supermercado 2 (1 km en este caso y hacia
el supermercado 3), o desde el 3 con 0.8 km hacia el 5 para la segunda opción. Así proseguimos hasta
agotar los supermercados a recorrer, descartando recorridos cortos que unen supermercados ya visitados.

Figura 6: Dos esquemas de recorrido de supermercados para la estrategia 2

251
Marcel Pochulu

Si determinamos la métrica para cada recorrido de las dos opciones que se presentaron, resulta:
𝑅𝑇1 = 1.8 𝑘𝑚 + 1 𝑘𝑚 + 0.8 𝑘𝑚 + 0.4 𝑘𝑚 + 1.4 𝑘𝑚 + 1.7 𝑘𝑚 + 1.2 𝑘𝑚 + 3.5 𝑘𝑚 = 11.8 𝑘𝑚
𝑅𝑇2 = 1.8 𝑘𝑚 + 0.8 𝑘𝑚 + 0.4 𝑘𝑚 + 1.4 𝑘𝑚 + 1.6 𝑘𝑚 + 2.3 𝑘𝑚 + 2.6 𝑘𝑚 + 1.2 𝑘𝑚 = 12.1 𝑘𝑚
El recorrido 1 es el que resultaría óptimo y que ya habíamos encontrado con la estrategia anterior. No
obstante, la estrategia usada en este caso resulta más taxativa para tomar decisiones que la propuesta en la
uno, donde se deben estudiar la conveniencia de eliminación de rutas cuando no quedó conformado un
recorrido. La estrategia 1 encierra como técnica previa encontrar el árbol de ruta más corta (shortest path
tree) y a la vez, árbol recubridor. Posteriormente nos lleva a convertir el árbol en un camino simple de un
grafo, de tal forma que tengamos un vértice inicial (0 en este caso) y no se repite ninguno de los otros.
A su vez, podemos observar que la estrategia 2 no es ni más ni menos que el algoritmo de Dijkstra, la que
usamos sin recurrir al formalismo de actualización de distancias tomando como punto intermedio al nuevo
vértice (proceso denominado relajación). Nos resulta más conveniente la estrategia 2 en lugar de la 1, en
tanto el algoritmo de Dijkstra es una técnica voraz. En computación un algoritmo es voraz (ávido, devorador o
greedy), cuando emplea como estrategia de búsqueda (o heurística) elegir la opción óptima en cada paso
local con el propósito de lograr una solución general óptima.
19.4. Perspectivas de trabajo matemático con el problema
El problema planteado permite múltiples profundizaciones y perspectivas de abordaje. Se podría haber
considerado la componente “tiempo de recorrido” en lugar de ruta tomada y efectuar las comparaciones
correspondientes. A su vez, cabe determinar un circuito mínimo (salir y llegar al mismo punto) y no un camino
simple como lo realizamos.
Si los estudiantes tienen conocimientos de programación o si se trabaja interdisciplinariamente con el área de
computación, se complementaría con el trabajo y validación del problema al programar los algoritmos de
búsqueda para un conjunto determinado de datos.
Dependiendo de intereses que llegan a tener los estudiantes por un tema extramatemático, se encuentran
múltiples aplicaciones pensadas para la clase de matemática. Por ejemplo, el trabajo de Braier, Durán,
Marenco y Wesner (2015) aborda la optimización de las rutas de vehículos de recolección de residuos. Si
bien toman el caso particular de residuos reciclables en Morón (Buenos Aires, Argentina), es generalizable a
otros contextos y un caso particular del problema del cartero que se resuelve por medio de un modelo de
programación lineal entera.
En la misma lógica está el trabajo de Guzmán y Arana (2015), quienes buscan optimizar el recorrido que
debe realizar el vehículo recolector de residuos sólidos por el casco urbano del municipio de Zarzal (Valle del
Cauca, Colombia) mediante un modelo de grafos que representa las rutas actuales de recolección. Mediante
la aplicación de algoritmos obtienen una solución en términos de minimizar la distancia total recorrida. En
particular, este trabajo es un estudio de caso real, pues compara los resultados obtenidos con los que pone
en práctica la empresa dedicada a la recolección de residuos en la zona.
Otra perspectiva interesante deviene del trabajo realizado por Quercia, Schifanella y Aiello (2014), quienes se
proponen no solo encontrar la ruta más corta al visitar una ciudad, sino la más hermosa, tranquila y feliz.
Para ello plantean un algoritmo para decidir en función de estos parámetros, en lugar de utilizar la distancia
más corta como se hace tradicionalmente, o recurrir a la ruta que brinda un navegador GPS.
La estrategia utilizada consiste en que diferentes participantes votan fotografías de lugares turísticos de una
ciudad57. Posteriormente, analizan las imágenes publicadas en función de parámetros como comentarios o
puntuación otorgada. Esto permite establecer el trayecto más corto, el más bonito, el más tranquilo o el más
alegre.

57 La técnica se denomina crowdsourcing (del inglés crowd –multitud– y outsourcing –recursos externos–) y se la entiende como una
colaboración para ciertas tareas que se dejan a cargo de un grupo numeroso de personas o de una comunidad, a través de una
convocatoria abierta.

252
19. Distribución, logística y entrega de productos y mercaderías

19.5. Referencias bibliográficas


Braier, G.; Durán, G.; Marenco, J. y Wesner, F. (2015). Una aplicación del problema del cartero rural a la
recolección de residuos reciclables en Argentina. Revista de Ingeniería de Sistemas, 29, 49-65.
Guzmán, B. y Arana, J. (2015). Diseño de un modelo de ruteo de vehículos para la recolección de residuos
sólidos en el municipio de Zarpal, Valle del Cauca (tesis de grado). Universidad del Valle, Cali,
Colombia.
Quercia, D.; Schifanella, R. y Aiello, L. (2014). The Shortest Path to Happiness: Recommending Beautiful,
Quiet, and Happy Routes in the City. In Proceedings of the 25th ACM conference on Hypertext
and social media (pp. 116-125). New York, USA: ACM Order Department.
Yepes, V. (2002). Optimización heurística económica aplicada a las redes de transporte del tipo VRPTW
(tesis doctoral). Universidad Politécnica de Valencia, España.

253
Marcel Pochulu

254

También podría gustarte