Está en la página 1de 12

La célula no es una máquina

[Preprint]

Reseña-resumen del artículo Is the cell really a machine? de Daniel Nicholson (2019)
DOI del artículo original: 10.1016/j.jtbi.2019.06.002

Por Jorge Senior

“Is the cell really a machine?” es un artículo publicado en el Journal of Theoretical Biology en junio
de 2019. Su autor es Daniel Nicholson, un investigador del Instituto Konrad Lorentz para la
Investigación en Evolución y Cognición. En filosofía de la biología defiende una ontología de
procesos. [En filosofía científica hablaríamos de ontología de eventos o sucesos, en tanto los
procesos son sucesiones de eventos; este enfoque se contrapone a una ontología de objetos; no
conviene la premura por decantarse a favor de una u otra].

La calidad del trabajo, su visión amplia y novedosa en un tema que constituye una intersección de
biología y filosofía, motiva mi divulgación en español, pues es un material de gran interés para
profesores y estudiantes de las dos áreas de conocimiento.

Introducción

La imagen de la célula como una máquina es una metáfora de uso común, así como es común
hablar de nanomáquinas moleculares para referirse a algunos componentes de la célula. Ese es el
punto de partida de la sección de Introducción del artículo de Nicholson, quien además nos
advierte, que esa interpretación predominante durante décadas es más que una metáfora, es un
“framework”, que podríamos traducir literalmente como “marco de trabajo”, y más libremente
como “marco teórico interpretativo”. Me atrevería a decir que podríamos considerarlo incluso
como un paradigma en sentido kuhniano, pero ya esto es de mi cosecha. En todo caso, Nicholson
considera este marco interpretativo como expresión del programa de investigación del
mecanicismo, rastreable desde el siglo XVII (el autor hace un recuento rápido de esa historia).

Este marco se caracteriza por sus presuposiciones teóricas, categorías conceptuales y modelos
explicativos, que serían los siguientes: la célula es una fábrica o maquinaria intrincada cuya
organización refleja un diseño pre-existente (genéticamente codificado), cuya estructura es
totalmente inteligible en términos reduccionistas y cuya operación está regulada por leyes
deterministas, las cuales representan un comportamiento predecible y controlable, al menos en
principio. De ahí que el vocabulario de la mecánica se haya incorporado a la biología celular y
molecular con descriptores de artefactos como los siguientes: motores, rotores, cadenas de
transmisión o de producción, líneas de ensamblaje, cisternas, baterías, bombas, escapes, circuitos,
cerraduras, llaves, etc. La metáfora del computador también está presente bajo la idea de
hardware y software, codificación e información.

Pero, ¿qué es lo que resulta tan sexy en la analogía de la máquina para aplicarla en biología? Una
máquina se puede caracterizar, en términos muy generales, como un dispositivo con
determinadas partes o componentes interactivos que operan en forma coordinada para producir
un resultado específico. Se pueden identificar cuatro propiedades distintivas de las máquinas. (1)
Las máquinas se pueden describir como una lista de componentes y una plantilla que indica como
esas partes se articulan entre sí (una persona podría armar el dispositivo siguiendo el manual de
instrucciones sin haber visto antes una ya armada o podría armar muchas y todas quedarían igual).
(2) Como cumplen funciones específicas, las máquinas tienen una operación muy restringida,
razón por la cual son predecibles y controlables. (3) Las máquinas son muy eficientes porque
siempre siguen los mismos pasos en cada ciclo de operación. (4) Las máquinas no necesitan
operar continuamente, pueden apagarse sin que ello ponga en peligro su integridad estructural, y
en ese estado sus partes pueden ser examinadas, reparadas o reemplazadas sin problema. Los
puntos 1 y 4 muestran por qué una explicación reduccionista resulta satisfactoria y los puntos 2 y 3
expresan la visión determinista.

Pues bien, el exitoso avance de la biología molecular bajo la visión mecanicista ha traído,
irónicamente, una acumulación de datos experimentales que son difíciles de conciliar con esa
visión. El autor cita 19 trabajos en ese sentido, a partir de los cuales desarrollará sus argumentos
para mostrar que, desde una perspectiva teorética, el marco mecanicista resulta inadecuado para
representar la realidad biológica. Esto se debe, según Nicholson, a dos razones: (1) el hecho de
que las células, a diferencias de las máquinas, son sistemas fluidos auto-organizados que se
mantienen en un estado relativamente estacionario, lejos del equilibrio termodinámico, por virtud
del intercambio de flujos de materia y energía con su entorno; (2) porque debido a sus
dimensiones microscópicas, las células, y más aún sus componentes, están sometidos a
condiciones físicas muy diferentes a las que actúan sobre objetos macroscópicos como las
máquinas. Ambas condiciones parecen obvias, las que no son tan claras son sus implicaciones
teóricas. Esas implicaciones son las que Nicholson profundiza en el artículo para sustentar que
chocan contra la concepción mecanicista, reduccionista y determinista aún predominante.

Si los hechos evidencian lo inadecuado del paradigma, ¿por qué nos hemos demorado tanto en
darnos cuenta? Una razón es que, como suele suceder con los paradigmas, las inconsistencias
(anomalías diría Kuhn) son barridas bajo la alfombra en aras de no afectar las asunciones
familiares con las que acostumbra a trabajar la comunidad científica. Un factor más importante,
cree Nicholson, puede ser que hemos estado cegados por las limitaciones de los métodos
bioquímicos y biofísicos. Técnicas in vitro, observaciones de comportamientos promedio de
grandes poblaciones de macromoléculas bajo condiciones diferentes a las del interior de la célula,
eran las únicas posibilidades de examinar lo que debía ser la dinámica interna de la célula. Pero la
introducción de nuevos métodos y técnicas capaces de hacer seguimiento y manipulación de
moléculas individuales dentro de la célula viva ha permitido observar por primera vez, en tiempo
real, la auténtica dinámica de las macromoléculas biológicas y su amplio repertorio de
comportamientos. Como consecuencia, la imagen mecánica, rígida, nítidamente ordenada de la
célula está siendo reemplazada por una visión inherentemente estocástica (probabilística), más
plástica y menos predecible. Una revolución metodológica ha llevado a una revolución
conceptual.

Nicholson finaliza la introducción indicando cuatro dominios específicos de la biología celular y


molecular donde los problemas del paradigma mecanicista son más pronunciados y en los cuales
va emergiendo un nuevo marco interpretativo. Esos cuatro campos de investigación son: la
arquitectura celular, los complejos proteínicos, el transporte intracelular y el comportamiento de
las células.

En los siguientes cuatro apartados del artículo, Nicholson desarrolla en detalle los argumentos
para los cuatro casos mencionados. Su escrito es el resultado de años de trabajo y contiene más
de 150 referencias, eso puede dar una idea de la profundidad de la argumentación, la cual apenas
reseñaré someramente. Las cuatro tablas expuestas a continuación resumen esquemáticamente
las respectivas posiciones en discusión.
TABLAS

Arquitectura celular
Estática Dinámica
Auto-ensamblaje Auto-organización
Sistema cerrado Sistema abierto
En equilibrio Lejos del equilibrio
Codificado genéticamente Emergente (generado por emergencia)
Económico pero inflexible Costoso pero flexible
Abstraída del tiempo No abstraíble del tiempo
Afín a reduccionismo No afín a reduccionismo

Complejos proteínicos
Máquina molecular Ensamblaje pleomórfico
Subunidades duras, rígidas Subunidades blandas, fluidas
Composición y tamaño fijos Composición y tamaño variables
Pocas configuraciones Múltiples configuraciones
Comportamiento insensible a contexto Comportamiento sensible a contexto
Interacciones estables, predefinidas Interacciones transitorias, oportunistas
Afín a cristalización No afín a cristalización

Transporte intracelular
Golpe de potencia Trinquete browniano
Movimiento continuo adelante Movimiento discontinuo adelante
Entrada de energía produce movimiento Entrada de energía rectifica el movimiento
Se sobrepone a fluctuaciones estocásticas Aprovecha fluctuaciones estocásticas
Estructura del motor juega un rol crítico Estructura del motor es poco relevante
Movimientos coordinados del motor Movimientos no coordinados del motor
Incluye etapa mecánica crucial No incluye etapa mecánica crucial
Mecanismo “orden a partir de orden” Mecanismo “orden a partir de desorden”

Comportamiento celular
Determinista Probabilístico
Predecible individualmente Predecible sólo colectivamente
Patrones de respuesta graduales Patrones de respuesta estocásticos
Sometido a dinámica lineal Sometido a dinámica no lineal
Produce una población homogénea Produce una población heterogénea
Promedios son indicativos (baja varianza) Promedios despistan (alta varianza)
Ruido es un estorbo tolerado Ruido es un recurso explotado
Células isogénicas son iguales Cada célula isogénica es única
[1] Arquitectura celular.

En este acápite el autor contrasta dos conceptos, auto-ensamblaje vs auto-organización,


entendiéndose el primero en su sentido mecánico de estructura fija y el segundo en sentido fluido
de estructura disipativa. El primero refiere al equilibrio estático, el segundo al equilibrio dinámico.
El auto-ensamblaje dice Kirschner (2000) “es una extensión del dogma central de la biología
molecular, llevándonos del dominio de la información lineal al dominio del ensamblaje de
proteínas” (citado por Nicholson). Autores referidos en cada caso: para “auto-ensamblaje” figuran
Kushner, Inouie, Whitesides, Grzybowski y para “auto-organización” cita a Prigogine, Nicolis,
Kauffman, Karsenti.

El autor reconoce que el modelo mecánico funciona bien para casos como la formación de la
cápside viral o la biogénesis del ribosoma. Pero la auto-organización se manifiesta mejor para
casos de estructuras fluidas como el huso mitótico, el citoesqueleto, balsas de membrana
plasmática, aparato de Golgi, compartimentos de membranas intracelulares, y también para el
caso del núcleo en su conjunto y su diversidad de organelos, nucléolos, cuerpos de Cajal y
manchas perinucleares. La auto-organización también aplica en procesos como el metabolismo, la
organización del genoma, la división celular, la diferenciación celular. Cada uno de esos ejemplos
es brevemente descrito en el artículo.

Todo esto rompe con la idea de que la organización espacial de la célula está previamente
codificada como información en el genoma. No hay plantilla genética para la arquitectura celular.
Esta emerge de interacciones de numerosos productos de los genes con otros componentes
celulares. Los genes son importantes, pero no generan una única cadena de eventos como si de
un plan o programa se tratase. De hecho, los productos de los genes salen a un medio con
organización espacial preexistente.

La auto-organización es energéticamente más costosa que el auto-ensamblaje, pero su ventaja es


la flexibilidad, la adaptabilidad, clave desde el punto de vista evolutivo. En el modelo de auto-
ensamblaje podemos prescindir del tiempo, en la auto-organización no, pues en las estructuras
disipativas hay un permanente flujo de materia y energía, lo que se conserva es la forma. En el
modelo tradicional el énfasis está en la estructura material, en el modelo emergente se encuentra
en los procesos.

[2] Complejos proteínicos.

En este apartado la crítica a la concepción maquinista desciende al nivel molecular, concretamente


a las proteínas. Por ejemplo, se llama la atención sobre el influyente manifiesto de Alberts (1998):
la célula como colección de máquinas moleculares, ofrecido como guía formativa de biólogos
moleculares. Las décadas de predominio de la visión maquinista se podrían explicar, quizás, por su
éxito para unir dos escuelas o programas de investigación, uno centrado en la estructura
(ejemplificado en famosos científicos como Astbury, Bernal, Pauling) y otro enfocado en la
especificidad funcional (con protagonistas como Delbruck, Luria, Hershey, recuérdese el “grupo de
los fagos” en los años 40) (nota: en este último enfoque es donde encaja el concepto de
“información”). Ambos enfoques, uno proveniente de la bioquímica y el otro de la genética,
convergen en la apoteosis del descubrimiento de Watson y Crick en 1953, la doble hélice del ADN,
sin embargo, volverán a caminar en paralelo durante las siguientes décadas, pero teniendo como
marco unificador la concepción de la célula como fábrica o máquina, al menos hasta que nuevos
descubrimientos generan serias dudas sobre la adecuación empírica de esta visión. Aquí el análisis
crítico se bifurca para atacar primero el aspecto estructural y luego el de la especificidad funcional
en las proteínas, aunque en ambos casos el autor considera que han sido las limitaciones de los
métodos y técnicas de investigación lo que permitió el prolongado auge del enfoque maquinista o
mecanicista.

Aspecto estructural. El dogma central de la biología estructural se puede enunciar así: cada
proteína tiene una única configuración tridimensional (la más estable termodinámicamente)
necesaria para cumplir su función específica. Pero las proteínas no son duras y rígidas como
máquinas, sino suaves, fluidas y a veces parecidas a un líquido. Mientras la cristalografía y el
estudio de proteínas aisladas favorecieron la imagen mecánica, nuevas técnicas como la
Resonancia Magnética Nuclear y el seguimiento individual de moléculas in vivo evidenciaron que
las proteínas suelen tener múltiples configuraciones separadas por barreras de baja energía y
fluctúan estocásticamente entre ellas. Una población de proteínas es, entonces, heterogénea. Los
métodos clásicos detectan la estructura predominante y promedian las diferencias, haciendo ver
la población como homogénea, ocultando la variedad. Incluso el perfil de las variaciones es
cambiante, pues diversos factores del entorno (el autor menciona 5) pueden alterar las alturas de
las barreras de energía. Algunas proteínas ni siquiera tienen una configuración ordenada, son
cadenas no enrolladas de polipéptidos y se les denomina PIDs (Proteínas Intrínsecamente
Desordenadas, en inglés IDPs). Pues bien, las PIDs refutan el dogma central de la biología
estructural. Las PIDs están presentes en todos los dominios de la vida. En los mamíferos el 25%
de las proteínas son desordenadas, el 50% tienen al menos una parte desordenada (no menor a 30
aminoácidos) y el 75% de las señalizadoras son desordenadas. Discriminar ordenadas y
desordenadas no es difícil dado que la secuencia de aminoácidos define la habilidad de plegarse o
de permanecer sin plegarse. Hay funciones celulares que exigen estructuras ordenadas como la
catálisis enzimática, el reconocimiento inmunológico, receptores selectivos. Pero hay otras
funciones que no son exigentes en ese sentido, como la señalización y la regulación. En general las
PIDs sólo adquieren conformaciones estables cuando se enganchan en objetivos apropiados y
algunas ni siquiera después de engancharse. Los agregados macromoleculares proteínicos
también tienen alto grado de ambigüedad en su configuración. A esto se le denomina “fuzzines”
en inglés, o sea, borrosidad. Entre más conocemos del interior de la célula, menos se sostiene la
imagen de máquina.

Aspecto de la especificidad funcional. En las PIDs la función la dicta el contexto. La promiscuidad


funcional es la regla, no la excepción. Incluso las enzimas son catalizadoras promiscuas, además
de cumplir funciones no catalizadoras. A esta multifuncionalidad se le denomina “moonlighting”
en inglés, término popular para referirse al pluriempleo. La multifuncionalidad no está codificada
en el genoma y, por ende, no es predecible. La multifuncionalidad de proteínas depende de: tipo
de célula, localización dentro de la célula, naturaleza y número de otras proteínas a las cuales se
engancha, la cantidad de ligandos, sustratos, cofactores o productos disponibles.

Las proteínas interactúan en grandes cantidades, moviéndose estocásticamente y formando


asociaciones fugaces, una imagen que recuerda poco a una máquina. La ambigüedad, la
contingencia y la contexto-dependencia de las interacciones proteína – proteína lleva a pensar los
complejos proteínicos como ensambles pleomórficos transitorios y no como máquinas
moleculares estables. Todo esto lleva a cuestionar los diagramas de circuitos y mapas de diseño
usualmente utilizados para describir el funcionamiento celular y sus rutas metabólicas. Tales
mapas sobreestiman nuestro real conocimiento de la célula. Las interacciones entre proteínas son
contingentes y oportunistas, no reflejan un diseño genético predeterminado, por lo cual el valor
explicativo de los diagramas de circuitos es dudoso.

[3] Transporte Intracelular.

En este apartado el autor enfrenta el modelo del empujón o golpe de potencia (power-stroke) con
el modelo de trinquete browniano (brownian ratchet) para explicar los denominados motores
proteínicos que hacen funciones de transporte direccional a lo largo de vías citoesqueléticas.

En el modelo del empujón hay una entrada de energía química (hidrólisis de ATP) que se traduce
en fuerza mecánica produciendo un movimiento hacia adelante (trabajo, en términos físicos) en
un camino polimérico. Un ejemplo son los motores de actina en los cuales la miosina hace el
trabajo a lo largo de microfilamentos hasta llegar a la actina. Otro ejemplo son los motores de
microtúbulos en los cuales kinesina o dinesina hacen el trabajo a lo largo de microtúbulos hasta
llegar a la tubulina. Este modelo tiene varios problemas: a) en la kinesina no sólo la dimérica (dos
“patas”), sino también la monomérica (una “pata”) produce movimiento direccional; b) no hay
correlación entre la energía consumida y la distancia recorrida (un ciclo de ATP en miosina puede
mover de 5 a 30 nm); c) la estructura geométrica no encaja bien con el tamaño de los pasos; d) no
hay especificidad funcional (también hacen otras cosas). No hay que olvidar tampoco lo analizado
en la sección anterior sobre la no rigidez o dureza de las proteínas y mucho menos el hecho
inevitable de que estos procesos acontecen en un medio sometido a movimientos brownianos de
moléculas por agitación térmica o fluctuaciones cuánticas. De hecho, el empuje de un ciclo de ATP
es apenas un orden de magnitud mayor que los numerosos empujoncitos producidos por el
movimiento browniano de partículas. Es como caminar en medio de un huracán.

En el modelo trinquete browniano la entrada de energía química (ciclo de ATP) no provee un


empujón mecánico sino que produce un cambio de una a otra configuración de la proteína. Las
dos configuraciones alternativas tienen diferentes perfiles de energía potencial y la molécula
fluctúa entre una y otra estocásticamente. Lo que mueve la proteína es la agitación térmica del
medio, el movimiento browniano en el entorno, que no tiene dirección preferencial por lo cual
genera un vaivén estocástico de la molécula. Lo que impone una dirección es el perfil energético
de la proteína que bloquea un sentido y es permisivo en el otro (efecto trinquete). Así la proteína
aprovecha el movimiento browniano y lo canaliza, por decirlo así, en una dirección determinada a
lo largo de una vía citoesquelética.

Nótese que en el primer modelo el desplazamiento de la proteína se produce a pesar del


movimiento browniano del entorno, mientras que en el segundo se produce gracias a ese
movimiento browniano. En el primero la energía química empuja, es decir, produce un efecto
mecánico de movimiento, en el segundo, la energía química sólo sesga el movimiento aleatorio en
una dirección determinada. Los problemas a, b y c mencionados dos párrafos arriba que parecían
inexplicables en el modelo del empujón, ahora encajan sin dificultad en el modelo trinquete y se
explican de manera natural. En este último modelo la estructura y la especificidad no juegan un
papel crítico, por tanto no resulta sorprendente que la misma proteína cumpla también otras
funciones.

A la postre el modelo trinquete es más simple y muestra cómo la estocasticidad es aprovechable.


Es un ejemplo del principio “orden-a-partir-del-desorden” y no del principio “orden-a-partir-del-
orden” que invocaba Schrödinger en sus famosas conferencias de 1944 refiriéndose a un diseño
genético pre-existente como punto de partida. Dos procesos aleatorios (el movimiento browniano
y las uniones de ATP) generan un resultado no aleatorio: un movimiento direccional. Nota: el
término “trinquete” parece aludir a algo mecánico, pero en este caso la metáfora se refiere al
perfil energético puntiagudo (no sinuosoidal) cuando se representa gráficamente. Tenemos
entonces, en este segundo modelo, una conceptualización no mecánica, no determinista, sin
diseño previo, del transporte intracelular.

Nicholson finaliza este acápite señalando que la disputa teórica entre los dos modelos no se ha
resuelto y que, además, cabe la posibilidad de que no sean del todo excluyentes, para luego
recalcar que, en todo caso, aunque se use la palabra “motor” para referirse a estas proteínas, la
diferencia con los motores mecánicos macroscópicos no podría ser más evidente.

[4] Comportamiento celular.

En este último ejemplo Nicholson analiza la modulación y regulación de la expresión génica en


respuesta a señales extracelulares e intracelulares, aspecto clave del comportamiento celular. Por
mucho que se haya avanzado en la identificación de decenas de factores de transcripción, el
debate está en el detalle del proceso. El autor pasa entonces a contrastar dos modelos: el
determinista gradual vs el probabilístico “digital”, argumentando a favor de este último, posición
que actualmente ya ha logrado consenso.

Resumiré la descripción del modelo gradual en el siguiente esquema lineal: inductor > activador >
amplificador > complejo pre-iniciador > promotor > transcripción (posteriormente vendría la
traducción y más allá las rutas metabólicas, regulatorias y señalizadoras). La observación muestra
que un aumento gradual en la concentración de inductores produce un aumento gradual en la
tasa de transcripción medida con sus productos. Es una relación lineal, directamente
proporcional, lo cual parece encajar muy bien con el marco mecanicista y determinista, pues así
funcionan las máquinas (pensemos por ejemplo en lo que sucede al hundir gradualmente el pedal
del acelerador de un vehículo). También encaja con la idea computacional que concibe al genoma
como un programa con respuestas predecibles. Y no deja de ser irónico que el modelo opuesto
sea el que, como veremos, tiene una operación binaria o digital, mientras que éste modelo gradual
funciona como una máquina analógica.

Pero una vez más tenemos el caso en que una revolución metodológica coadyuva la generación de
una revolución conceptual. Técnicas como ensayo northern, micromatrices y PCR con
transcriptasa inversa se trabajan necesariamente con poblaciones de células isogénicas, esto es,
genéticamente idénticas. Esta limitación no parecía representar problema alguno desde la visión
mecanicista dado que se suponía que todas las células eran homogéneas. Pero nuevas técnicas,
como las proteínas reportadoras fluorescentes o innovaciones en la microscopía, permitieron el
estudio en tiempo real y a nivel individual, tanto de células como de proteínas dentro de la célula.
Para sorpresa de quienes asumían la concepción tradicional, cada vez se fue haciendo más
evidente la heterogeneidad de las células isogénicas: ¡las células tienen personalidad! (bueno, al
menos en el sentido de individualidad diferenciada). Se trata entonces de una heterogeneidad no
genética.

En el modelo alternativo, el aumento gradual de la concentración de inductores que produce un


aumento gradual en la tasa de transcripción de la población isogénica, no es interpretado como un
aumento gradual de la tasa de transcripción en todas y cada de las células al unísono, sino como
cambios probabilísticos diferenciados en cada célula individual que van pasando súbitamente de
un meta-estado de transcripción desactivada a otro activado y, entonces, lo que se ve como
gradual en la población es el aumento del número de células activadas. Es por esto que, en
ocasiones, se habla del modelo “binario”, “digital” o del “umbral”.

Imaginemos un árbol de navidad lleno de foquitos de luces blancas, pero apagado. En el modelo 1
rotamos el botón de un dimmer y poco a poco todos los foquitos se van encendiendo y
adquiriendo mayor luminosidad. En el modelo 2 a medida que movemos el dimmer se van
encendiendo unos pocos foquitos pasando cada uno de ellos de apagado a plenamente encendido
de manera instantánea, y al seguir rotando el dimmer más y más foquitos se van encendiendo. En
ambos casos, un observador lejano que no es capaz de observar los foquitos individuales, lo que
ve es un árbol de navidad que gradualmente va ganando brillo. Sólo al acercarse puede
diferenciar cuál de los dos modelos es el acertado. Este ejemplo ilustrativo es de mi cosecha, no
del artículo.

Ahora bien, ¿de dónde proviene este comportamiento probabilístico de la célula individual? Pues
del movimiento browniano propio del medio en el cual se desarrollan estos procesos químicos,
donde cada reacción específica depende del encuentro fortuito en el espacio y el tiempo de
moléculas específicas y no precisamente abundantes. Por ejemplo, el activador (que es un factor
de transcripción) se adhiere a la región del ADN que llamamos amplificador (enhancer) y procede a
reclutar moléculas apropiadas para formar el complejo preiniciador. Esas moléculas se mueven
caóticamente en el entorno así que formar el complejo indicado puede demorar más o menos
tiempo. Es un proceso estocástico. Completada la tarea arrancan los promotores a transcribir al
ARNm. Esto explica que se observe un bursting behavior, un comportamiento por impulsos, que
de otra manera sería inexplicable. De acuerdo a este modelo estocástico no se puede determinar
si tales o cuales genes están activos en un instante dado en toda una población isogénica, sólo se
les puede atribuir una probabilidad de que estén activos en una célula particular en un momento
particular.

La variabilidad en la actividad transcripcional es una de las causas de la heterogeneidad celular,


aclara Nicholson, pero no es la única. También puede ser generada por las configuraciones
topológicas de la arquitectura del núcleo o por la partición desigual de contenidos citoplásmicos
en la división celular.

El apartado finaliza con una reflexión sobre las resistencias al nuevo enfoque, poniendo la lupa en
un concepto importado a la biología desde la ingeniería, el “ruido”. Nótese que ese concepto trae
una carga negativa por lo que significa en el mundo ingenieril. Las primeras observaciones de
heterogeneidad fueron vistas en el seno de la comunidad científica de biólogos celulares como
algo negativo, una perturbación, y se llegó a hablar de “transcripción ilegítima”. Esa perspectiva
ingenieril se moderó luego y empezó a hablarse de que “las células toleran el ruido”. Finalmente
se aceptó de manera contundente que, a diferencia de las máquinas, las células explotan el ruido,
lo aprovechan. Este cambio paradigmático obedeció principalmente a que la heterogeneidad
fenotípica de las células es clave para la supervivencia y, por ende, relevante en el contexto de la
evolución, tanto en el mundo procariota como el eucariota. Asimismo es relevante para el
desarrollo embrionario. No lo dice el autor, pero el enfoque evo-devo parece haber inclinado la
balanza a favor del modelo probabilístico.

Nota del suscrito: he hablado de “estocástico” y “probabilístico”. El primer concepto refiere a una
propiedad objetiva. El segundo a una atribución que hace el sujeto cognoscente. Estrictamente
deberíamos hablar de un modelo probabilístico de un fenómeno estocástico y no usar la expresión
“modelo estocástico”, que sin embargo es muy común.
Conclusiones

Finalmente, Nicholson expone sus conclusiones en página y media. Basado en los cuatro casos
estudiados y discutidos, muestra primero que la célula no cumple con la caracterización de
máquina hecha en la Introducción, es decir, la célula, en su conjunto, no posee esas cuatro
propiedades distintivas mencionadas, analizando una por una. Pero hace una aclaración
importante: no toda entidad o proceso en la célula ha sido, o necesita ser, reconceptualizado. No
todo organelo existe como estado estacionario irreversible, no todo complejo proteínico es un
ensamblaje pleomórfico y así sucesivamente. En otras palabras el paradigma mecanicista no se
debe echar a la basura, pues funciona parcialmente. El viejo y el nuevo paradigma son
complementarios y deben negociar su coexistencia. Dicho lo que la célula no es, una máquina, el
autor pasa luego a expresar lo que sí es en el siguiente párrafo.

¿Qué es entonces la célula? Contrario a lo que creía Jacques Monod, la célula no es una máquina
sino algo muy diferente, quizás más interesante aún y menos reglamentado. Es una organización
encapsulada y autosostenida, en estado estacionario, de procesos interconectados e
interdependientes; un sistema integrado a múltiples escalas por flujos conjugados, colectivamente
lejos del equilibrio termodinámico pero dinámicamente estable. Dada su precaria naturaleza, la
célula se ve obligada a negociar constantemente entre la estabilidad estructural y la flexibilidad
funcional: demasiada rigidez compromete la adaptabilidad fisiológica y demasiada promiscuidad
compromete la eficiencia metabólica. La célula enfrenta esto recambiando y reorganizando
continuamente sus constituyentes en diferentes complejos macromoleculares con diversas
capacidades funcionales, las cuales ensambla y desensambla de modo tal que le permite
sobrellevar las siempre cambiantes demandas del ambiente. El batido permanente de moléculas
dentro de la célula, de carácter estocástico, y sus asociaciones oportunistas para formar
ensambles transitorios funcionales en respuesta a señales intracelulares y extracelulares, provee
rápidas y robustas soluciones a los problemas adaptativos encarados por la célula, de tal manera
que logra un óptimo balance entre plasticidad y eficacia.

Posteriormente, el autor muestra, con cierta sorpresa, que la nueva visión ha tenido múltiples
antecedentes a lo largo del siglo XX (y hasta antes) por científicos como Haldane, Bertanlaffy,
Karush, Jirgensons, Jensen, Feynman (sí, el propio de los tambores), Novick, Weiner, Spudich,
Koshland. Y entonces se pregunta, por qué, si no hay discusión en los hechos, muchos
investigadores insisten en explicar los fenómenos celulares en términos de mecánica clásica,
equilibrio termodinámico, ingeniería mecánica y electrónica, esto es, en términos que chocan con
la propia naturaleza física de la célula. Nicholson plantea tres posibles razones: (1) porque la
visión mecánica, típica del mundo macroscópico, es más intuitiva y familiar; (2) porque el nuevo
paradigma nos presenta una célula más difícil de estudiar y sus expectativas de poder explicativo y
predictivo son menos optimistas dada la ausencia de una causalidad simple, el carácter estocástico
de los fenómenos y el tipo de explicación probabilística; (3) porque ampliar el marco interpretativo
implica incrementar la caja de herramientas conceptuales de la biología molecular, superar la
aversión a la teoría que muchos poseen, e incorporar ideas de la termodinámica lejos del
equilibrio, la teoría de la complejidad, la física de la materia condensada y la mecánica cuántica.
Pero las ventajas son muchas. El nuevo marco interpretativo es capaz de darle sentido teórico a
múltiples hallazgos empíricos que vistos con el viejo lente parecen paradójicos o casi inexplicables.
Reportes de organelos que se auto-organizan, ensamblajes macromoleculares similares a gotas
líquidas, complejos de señales borrosas, proteínas plurifuncionales, motores no mecánicos,
procesos de orden a partir de desorden, heterogeneidad no genética, individualidad de cada
célula, parecen desconcertantes desde la perspectiva mecánica tradicional, pero se ajustan
perfectamente al marco interpretativo emergente. Descubrimientos que resultan confusos e
inesperados desde la visión tradicional se tornan naturales y esperables dentro del nuevo marco
teórico. En últimas, la práctica de hacer caso omiso de algunos de los principios que gobiernan la
dinámica interior de la célula porque son poco familiares o de desentenderse de diversas
propiedades distintivas de la célula porque son difíciles de estudiar, resulta ser un error. Sólo
confrontando esta inercia podemos esperar que algún día tengamos una comprensión
teóricamente satisfactoria de lo que es la célula y su funcionamiento como una unidad integral.

El Búho

Barranquilla, 20 de julio de 2019 (a 50 años de la llegada del Sapiens a la Luna)

También podría gustarte