Está en la página 1de 333

Mikhail Borisovich Berkinblit

Elena Georgievna Glagoleva

La electricidad en los organismos vivos


En memoria de Luigi Galvani, quien 230 años atrás fundó la Electrobiología
experimentando con patitas de ranas.

Prefacio

¿De qué trata este libro? ¿Qué podemos conocer a través de sus páginas? El he-
cho de que en los organismos vivos existen procesos eléctricos hoy en día no
resulta asombroso para nadie. Para nosotros, este conocimiento ya se ha vuelto
igual de común como el alumbrado eléctrico o la televisión. A prácticamente
cualquier persona en su vida le han tomado un electrocardiograma y su abre-
viatura—ECG—es ahora muy conocida. La abreviatura EEG (electroencefalo-
grama) es algo menos conocida, pero la mayoría de las personas sabe que en el
cerebro fluyen corrientes eléctricas. Hoy en día existen prototipos de sistemas
que permiten controlar bioprótesis o equipos a nuestro alrededor mediante es-
tas corrientes y el “pensamiento”. Estos ejemplos que mencionamos dependen
de procesos eléctricos en el cerebro y en los músculos, órganos en los cuales
estos procesos se manifiestan de la manera más obvia.
Sin embargo, son menos las personas que saben que los fenómenos eléctri-
cos juegan un papel igual de importante en el funcionamiento de los demás ór-
2

ganos de los seres humanos y de los animales: del estómago, de los riñones, de
las glándulas y los demás. Es más, si tomamos cualquier organismo vivo, des-
de la bacteria más simple y hasta al más grande de los seres vivientes—la ba-
llena azul—encontraremos que su vida está estrechamente vinculada a múlti-
ples procesos eléctricos.
En este libro, nosotros explicaremos qué es la “electricidad animal”, cómo
surge ésta y cómo es que la aprovechan los seres vivos. Éste es el tema central
de nuestro libro.
No obstante, aparte de la “electricidad animal” este libro tiene un segundo pro-
tagonista—la ciencia que lleva por nombre Electrobiología. Todos los resulta-
dos que presentamos en este libro son logros de esta ciencia. Cuando examina-
mos la mayoría de los logros científicos, por lo general se menciona cuál es el
logro. Pero también existen otras cuestiones—cómo y quién pudo lograr esos
resultados.
En nuestro libro procuraremos no solamente mencionar los resultados de
del estudio de la “electricidad animal”, sino también, a nuestras posibilidades
—relatar cómo es que fueron obtenidos, es decir, ilustraremos cómo se fue lle-
vando a cabo la búsqueda científica. Esta parte la consideramos no menos inte-
resante que alguna serie, y no menos importante que la mención de los resulta-
dos obtenidos.
La ciencia es realizada por personas reales. Mientras más nos vamos ale-
jando de ellas en el tiempo, más se va perdiendo la pertenencia individual de
los descubrimientos. Y nos comportamos con esos conocimientos como si
siempre hubieran estado presentes en la humanidad. ¡Pero eso no es así! Cada
término científico—“conductor”, “voltaje”, “electrón”—es el resultado de mu-
cho trabajo, experimentos y del pensamiento de personas específicas. Y es ne-
cesario recordar a estas personas, aunque sea de vez en cuando.
Existen dos maneras diferentes de hacer las cosas en la vida y en la ciencia.
En el primer caso, por ejemplo, a las calles de las ciudades se les asignan nú-
meros. Esto es muy cómodo, pero las calles no adquieren personalidad. En el
segundo caso a las calles se les nombra en honor a las personas que vivieron en
ellas, o que murieron defendiéndolas. Previamente existía la tradición de nom-
brar los descubrimientos científicos en honor de los autores que los realizaron.
Unas neuronas grandes del cerebro fueron llamadas células de Purkinje, la bo-
bina eléctrica de inducción—se denomina bobina de Ruhmkorff, un tipo de
motores de combustión interna recibió el nombre de Diesel, y los rayos X en
otros idiomas recibieron el nombre de rayos de Roentgen. Hoy en día esta tra-
dición está desapareciendo. Y esto es lamentable. Hay un buen dicho que dice:
“¡El país debe conocer a sus héroes!”.
Nosotros queremos presentarte a los héroes y los descubrimientos del país
llamado Electrobiología.
4

Capítulo 1

El nacimiento de la Electrobiología
La ciencia es la progresiva aproximación del hombre al mundo real
Max Planck
La ciencia nos atrae solamente cuando, interesados en la vida de los grandes
descubridores, comenzamos a seguir la historia de sus descubrimientos.
J.C. Maxwell

Nosotros no siempre conocemos las fechas relacionadas con los grandes cientí-
ficos de antaño. Por ejemplo, no conocemos la fecha de nacimiento de Aristó-
teles. Aún más difícil es determinar la fecha del nacimiento de una ciencia. Pa-
rece que ésta se desarrolla constantemente y la fecha de su nacimiento puede
ser establecida solamente con una aproximación de una que otra decena de
años y a veces—uno que otro centenar de años. Pero la Electrobiología en este
aspecto tuvo suerte—el día exacto de su nacimiento es considerado el 26 de
septiembre de 1786. Precisamente ese día, el médico y científico italiano Luigi
Galvani realizó su primer gran descubrimiento. El trabajo previo que resultó en
este descubrimiento comenzó a partir de una observación.
Galvani describió de la siguiente manera aquel acontecimiento en su “Tra-
tado sobre las fuerzas eléctricas durante el movimiento muscular”, publicado
en el año 1791:
“Yo seccioné e hice una preparación de una rana… y, pensando en otra cosa, la
coloqué sobre la mesa en la que se encontraba un generador electrostático… ais-
lado completamente del conductor y a una gran distancia de éste. Cuando uno de
mis ayudantes de una manera muy suave rozó con la punta del bisturí los nervios
internos del muslo de esa rana, los músculos de la pata de la rana comenzaron a
contraerse de tal manera, que parecía que habían entrado en fuertísimas convul-
siones tónicas. Otro de mis ayudantes, que nos ayudaba con los experimentos de
electricidad, notó que, según le había parecido, las contracciones ocurrían cuan-
do del conductor del generador electrostático salía una chispa… Muy asombra-
do por el nuevo fenómeno, él enseguida llamó mi atención a este efecto, aunque
yo estaba concentrado en otra cosa y estaba completamente inmerso en mis pen-
samientos. Despertó entonces en mí un gran deseo apasionado de estudiar este fe-
nómeno y sacar a luz todo lo que se ocultaba detrás de él.”

Cuando uno comienza a leer este tratado, el descubrimiento de Galvani parece


una simple casualidad: quién sabe por qué razón la persona hizo una prepara-
ción de una rana en una mesa, en la que por mera coincidencia se encontraba
un generador electrostático. Pero ¿qué experimentos quería realizar Galvani?
Porque él era un médico y no un físico.

Para responder a todas estas preguntas y entender cómo surgió la nueva


ciencia—la Electrobiología, tendremos que darnos una idea general del entorno
científico de la época en la que le tocó trabajar a Galvani, y conocer cómo los
científicos de esos tiempos entendían la carga eléctrica y la contracción de los
músculos—fenómenos que hoy en día puede explicar prácticamente cualquier
alumno de secundaria.
Exposición histórica
Imaginemos que nos encontramos en el año 1786, a finales del siglo XVIII—el
siglo de la Ilustración, el cual fue para la ciencia lo mismo que los siglos XV-
XVI (los siglos del Renacimiento) para el arte.
En realidad, las ciencias naturales en su sentido actual surgieron precisa-
mente en esta época. En esta época cambió el significado y el contenido de tér-
minos como “ciencia”, “científico”. Un científico comenzó a ser considerado
un investigador de la naturaleza, y no un teólogo, como ocurría antes. A fines
del siglo XVIII, en la ciencia ya se había establecido de una manera más firme
el método experimental que había demostrado su fortaleza; aparecieron equi-
pos como el microscopio y el telescopio. Estos avances crearon la fe en la fuer-
za y el poder de la ciencia, y la esperanza de que sus avances y la expansión
del conocimiento pudieran cambiar el mundo.
En el siglo de la Ilustración, la ciencia se difundía ampliamente a través de
obras impresas y presentaciones orales. En Francia, entre 1761 y 1788, se edita
una famosa enciclopedia en la que describían los principales logros alcanzados
por la ciencia hasta ese entonces. Son publicados numerosos libros de texto, li-
bros de contenido científico y de ciencia popular. Los científicos presentaban
6

sus trabajos ante el público, y a estos eventos acudían personas de diferentes


estratos sociales.
La sociedad en general tenía un vivo interés por la ciencia. En estos años,
las damas de la corte y los caballeros no solamente hacían representaciones de
pastorales y de ballet, o componían versos en latín, sino que también comenza-
ban a coleccionar herbarios. Las personas adineradas ya no solo se jactaban de
sus cubiertos de plata trabajados por Cellini, sino también de sus colecciones
de mariposas raras y de sus jardines de plantas de ultramar.
Los experimentos de esta época no solamente se realizaban en trabajos de
investigación: la práctica experimental era muy común en la docencia y en la
difusión de la ciencia. Surgió, como pudiéramos decir ahora, un verdadero
boom experimental. Los experimentos se llevaban a cabo no solamente entre
especialistas, o en los círculos de científicos y laboratorios amateurs: también
se realizaban a manera de presentaciones públicas, o incluso en las salas reales
(en este tiempo estaba de moda que inclusive la realeza se interesara por la
ciencia). Es más, a veces los experimentos se llevaban a cabo ante los ojos de
toda la población local. Por ello, en muchas ocasiones los experimentos debían
presentarse en forma interesante y parecer algo así como un truco de magia que
tuviese un efecto inesperado.
Un poco acerca de Galvani
Luigi Galvani nació en Boloña el 9 de septiembre de 1737. Parecía que su vida
no le preparaba nada excepcional. En 1759 Galvani egresó de la Universidad
de Boloña (una de los más antiguas de Europa, fundada en el año 1119) en la
que posteriormente se quedó a trabajar. Sus trabajos trataban de medicina y
anatomía. En su tesis doctoral analizó la estructura de los huesos. Aparte, él es-
tudiaba la estructura de los riñones y del oído de las aves. Galvani obtuvo va-
rios resultados nuevos, pero no logró publicarlos, porque poco antes la mayoría
de esos resultados fueron descritos por el estudioso italiano Antonio Scarpa.
Este primer fracaso científico no logró desanimar a Galvani. En el año 1726,
con 25 años, Galvani comienza a dar clases de medicina en la Universidad de
Boloña, al cabo de un año él ya es profesor, y ya en 1775 encabeza la cátedra
de anatomía práctica. Él era un orador muy bueno y sus presentaciones siempre
atraían a muchos estudiantes. Galvani también trabajaba mucho en la cirugía.
La práctica de medicina y el trabajo docente le quitaban mucho tiempo, pero
Galvani, como verdadero hijo de su época, tampoco dejaba de lado la investi-
gación fundamental, tanto la parte descriptiva, como la experimental. A partir
de 1780 Galvani comenzó su estudio sobre la fisiología de los nervios y los
músculos, mismo que posteriormente le llevó a la fama mundial y le hizo pasar
muchos malos momentos.
Podemos entender entonces por qué el médico Galvani hacía experimentos
y por qué tenía en su mesa una preparación de una rana. Pero ¿por qué tenía en
su mesa un generador electrostático?
¿Por qué Galvani tenía en su mesa un generador electrostático?
¿Qué podía saber Galvani sobre la electricidad y por qué podía interesarle ésta?
Hasta principios del siglo XVIII prácticamente no existía una ciencia sobre la
electricidad por una razón muy simple: no había nada que estudiar. Desde
tiempos anteriores las personas conocían las curiosas propiedades del ámbar;
se topaban, por supuesto, con fenómenos como los relámpagos, incluso cono-
cían la “electricidad animal”, pero a nadie se le ocurría que pudiera haber algo
en común entre el trueno en el cielo, el chisporroteo casi inaudible del ámbar y
el toque mortal del torpedo—la raya eléctrica del Mar Mediterráneo. Incluso
no existía la palabra misma—“electricidad”. Este término lo integró al vocabu-
lario general uno de los científicos de la Nueva Era—el médico de la corte de
la reina Elizabeth de Inglaterra—William Gilbert, quien demostró que no sola-
mente el ámbar, sino también otros cuerpos (los diamantes, la cera, las resinas
y otros) después de haber sido frotados, son capaces de atraer pequeños
objetos. A estos cuerpos Gilbert los llamó cuerpos eléctricos.
Los metales que frotaba Gilbert nunca pudieron electrizarse, por lo que él
llegó a la conclusión de que la electricidad no puede surgir en los metales.
(Esta conclusión, gracias al peso de la opinión de Gilbert, se mantuvo por 200
años. Recordémosla, porque le hizo una mala jugada a Galvani.)

La ciencia sobre la electricidad comenzó a desarrollarse de una manera


más seria precisamente en el siglo XVIII. Para empezar, las personas aprendie-
ron a obtener la electricidad. A principios del siglo XVIII el físico-experimen-
tador Francis Hauksbee crea uno de los primeros generadores electrostáticos
8

con una bola de vidrio que giraba rápidamente por la acción de una rueda. Los
generadores electrostáticos perfeccionados eran una fuente más segura de elec-
tricidad que un pedacito de ámbar o de cera. Estos aparatos permitían obtener
altos voltajes y descargas eléctricas, lo que permitió hacer más sistemáticos los
estudios de los fenómenos eléctricos.

Ya en la primera mitad del siglo XVIII fueron realizados los primeros des-
cubrimientos más importantes relacionados con la electricidad. En 1729, el fí-
sico inglés Stephen Gray descubrió que todas las sustancias pueden ser dividi-
das en conductoras y aislantes. En 1733, el académico francés Charles du Fay
descubrió que existían dos tipos de cargas eléctricas (que Benjamín Franklin
luego denominó “carga positiva” y “carga negativa”).

En los años 1745-1746, en dos lugares diferentes, pero casi al mismo tiempo,
fue inventado el primer condensador—la botella de Leyden. Por lo general este
descubrimiento lo describen de la siguiente manera: “En la ciudad de Leyden
dos físicos trataban de electrizar el agua contenida en un recipiente de cristal
que uno de ellos tenía en sus manos. Cuando la persona que sostenía el reci-
piente rozó la parte del conductor, recibió una fuerte descarga eléctrica. Otro
físico realizó un experimento similar en Pomerania”. Aunque debemos men-
cionar que el uso de la palabra “físico” es un ejemplo de obvia modernización.
Uno de los creadores de la botella de Leyden, Pieter van Musschenbroek, efec-
tivamente era un científico, aunque no físico, sino filósofo y matemático. El se-
gundo era “… un tal Cuneus, un ciudadano adinerado de la ciudad de Leyden”.
El experimento en Pomerania lo realizó el decano conciliar.1
A continuación, nosotros podremos observar más de una vez, cómo un
mismo descubrimiento era realizado casi al mismo tiempo por diferentes per-
sonas y en distintos lugares. Y esto no es alguna coincidencia. La acumulación
de los datos científicos y su análisis cuidadoso conllevan a que a distintas per-
sonas les surjan las mismas ideas, se realicen experimentos similares o se prue-
ben teoremas parecidos.
La botella de Leyden, que comenzaron a recubrir por dentro y por fuera
con papel de estaño, permitía acumular una carga bastante grande. La chispa de
una batería de botellas de Leyden podía ser vista a una distancia de 200 pasos.
Su descarga era bien perceptible para una persona.
Todos estos descubrimientos realizados durante el auge de interés por los
experimentos debían atraer la atención no solo de los científicos. Es entonces
cuando aparece la moda por los experimentos con la electricidad en diversos
estratos de la sociedad. Por ejemplo, el experimento con la botella de Leyden
fue repetido por el abate Nollet2 en presencia del rey de Francia en Versalles.
Ciento ochenta guardias, tomados de las manos, formaron una cadena. El pri-
mero sostenía en sus manos la botella de Leyden y el último cerraba el circuito,
creando la chispa. El toque era perceptible para todos al mismo tiempo. “Era
muy curioso ver los diferentes gestos y escuchar la exclamación emitida por la

1
Ferdinand Rosenberger. Die Geschichte der Physik (La Historia de la Física), Brauns-
chweig, Fridrich Vieweg und Sohn, 1882.
2
Él se hizo famoso por el descubrimiento de la ósmosis.
10

inesperada descarga en la mayoría de los que recibían el toque”—decía uno de


los testigos de este experimento.
El interés por los fenómenos eléctricos aumentó aún más cuando Benjamín
Franklin descubrió la electricidad atmosférica. Previamente se consideraba que
el trueno surgía cuando la parte superior de una nube golpeaba a la parte infe-
rior de otra. En 1752, Franklin con su hijo izaron un papalote durante una tor-
menta, y cuando el cordón del papalote se mojó, pudieron obtener de su punta
inferior chispas iguales a las que se obtenían con el generador electrostático, e
incluso llegaron a cargar una botella de Leyden. Esos experimentos eran bas-
tante peligrosos: el académico ruso Georg Wilhelm Richmann, amigo de Lo-
monosov, murió por la descarga de un rayo cuando realizaba experimentos si-
milares en 1753.3
El primer resultado práctico de los estudios sobre la electricidad fue la
creación del pararrayos (creado en 1753 por el mismo Franklin). Aunque los
pararrayos comenzaron a utilizarse, la mayoría de las personas no comprendían
su funcionamiento. Por ejemplo, en Francia los caballeros durante una tormen-
ta sacaban sus espadas y las dirigían hacia arriba, pensando que de esta manera
se protegerían de un rayo. En algunas partes la población protestaba contra la
instalación de pararrayos: el primer proceso legal de un ciudadano que quería
instalar un pararrayos en su casa, contra sus vecinos que se oponían a esto, fue
ganado por Robespierre a favor del primero.
A la vez que se realizaban estudios sobre los fenómenos eléctricos, crecían
las esperanzas sobre el uso práctico de la electricidad, sobre todo, en sus ini-
cios—sobre las aplicaciones más fantásticas que uno se pudiese imaginar. Por
ejemplo, cuando se descubrió que la descarga de la botella de Leyden a través
del cuerpo de una rana muerta provocaba la contracción de sus músculos, co-
menzaron a surgir rumores de que con la ayuda de la electricidad se podría re-
sucitar a los muertos. Se repitió lo acontecido cien años antes, cuando se inten-
taba explicar todos los fenómenos naturales mediante la presión atmosférica.
Sólo que ahora intentaban explicar todos los fenómenos mediante la acción de
la electricidad. Por ejemplo, se argumentaba que los terremotos surgían a con-
3
Estas dos fechas son muy interesantes: el experimento de Franklin, realizado en Pensil-
vania, fue repetido en San Petersburgo tan solo un año después ¡cuando todavía no exis-
tían ni la radio, ni la televisión, ni el correo aéreo, ni la red internet!
secuencia de descargas eléctricas en el interior de la Tierra. Con la ayuda de la
electrización “se aceleraba” el florecimiento de las plantas y la germinación de
las semillas; los polluelos de los huevos electrizados supuestamente se desarro-
llaban más rápido que aquellos que eclosionaban de huevos sin electrizar.4
Los doctores electrizaban tanto las medicinas como a los pacientes, y des-
cribían después sus avances y logros. Hay evidencias de que el agua fue utili-
zada en las botellas de Leyden precisamente buscando propiedades curativos
que pudiera poseer. Acá debemos mencionar que, 15 años antes, Stephen Gray
ya había demostrado que la carga se distribuye por la superficie de un cuerpo
cargado y no penetra en su interior, así que el agua no hubiera podido cargarse
de electricidad. Sin embargo, un gran número de personas afirmaba que el agua
electrizada tenía la capacidad de devolver la salud. Por ejemplo, se decía que
los enfermos paralíticos requerían ser cargados positivamente para recuperar su
salud, mientras que los pacientes con enfermedades mentales debían ser carga-
dos con cargas negativas.
En estos años aparecieron muchas personas que presumían tener una actividad
eléctrica muy potente, propiedad que supuestamente les permitía curar a los
enfermos. Someterse a una electrización comenzó a estar tan de moda, que to-
dos aquellos que por cualquier razón no podían pasar a electrizarse a laborato-
rios científicos, se “electrizaban” con charlatanes en las ferias.
De esta manera, todo lo dicho arriba sobre el interés de la sociedad en ge-
neral hacia la ciencia no debe ser tomado como un panorama en tonos rosas, o
como el triunfo del poder de la razón y de la ilustración. Lamentablemente, las
supersticiones y la mística—las sombras del conocimiento, siempre acompa-
ñan a los descubrimientos científicos. Y estas sombras son más oscuras,
mientras más brillante sea la luz, es decir, más extraordinario e inesperado sea
el fenómeno encontrado. Uno de los indicadores del nivel de cultura de una
persona y de la sociedad es precisamente la capacidad de distinguir “la luz de
la sombra”.

4
La Real Sociedad de Londres incluso emprendió una revisión crítica especial de los
datos sobre el efecto de la electrización sobre diferentes objetos y no los confirmó.
12

Ahora sí podemos tratar de explicar por qué Galvani tenía en su mesa de


trabajo un generador electrostático. En aquellos tiempos este aparato era muy
común y se utilizaba en diversos estudios científicos, o a veces nada más para
distracción. Existían talleres especializados en los que cualquier persona podía
encargar un generador electrostático personal, y cada científico que se respeta-
se hacía lo posible por tenerlo. Aparte, como ya dijimos, las personas asocia-
ban la electrización con efectos curativos, y por eso el médico Galvani pudo
haber utilizado el generador para sus experimentos médicos.
No obstante, a pesar de que esta hipótesis luce muy atractiva, probable-
mente no corresponda a la realidad. Galvani era un científico serio y es poco
probable que tuviera un generador electrostático solamente por cuestiones de
moda. El generador electrostático se encontraba en la mesa de laboratorio en la
que se realizaban experimentos con ranas, y no hay ninguna evidencia de que
Galvani electrizara a personas. Él, como ya habíamos dicho, estaba interesado
en la fisiología de los nervios y los músculos. Y para responder a nuestra pre-
gunta, nosotros tendremos que continuar con nuestro análisis. Veamos ahora
en qué estado se encontraban los conocimientos sobre la fisiología en los tiem-
pos de Galvani.
La fisiología en la época de Galvani
En este período, la física y sus métodos ya habían demostrado su fortaleza en
varias áreas de la Biología relacionadas a las áreas más avanzadas de la física.
Por ello, el avance del conocimiento sobre la electricidad creó nuevas expecta-
tivas. Incluso, podemos determinar de forma directa cómo una serie de descu-
brimientos (y errores) en la Biología fueron resultando del avance o del retraso
de las respectivas ramas de la Física.

Por ejemplo, William Harvey, el creador de la teoría de la circulación san-


guínea (propuesta en el año 1628), pudo comprender el papel del corazón, ya
que las bombas para líquidos ya habían sido inventadas, pero nunca supo expli-
car el papel de los pulmones, porque todavía no se conocía el oxígeno. Por eso
él, siguiendo a Aristóteles, consideraba que en el corazón la sangre se calienta
y en los pulmones se enfría.
La hipótesis de Aristóteles sobre el corazón-fuego, que se mantuvo vigen-
te casi por veinte siglos, fue refutada mediante un experimento físico: en 1680,
el discípulo de Galileo, Giovanni Borelli, realizó mediciones de la temperatura
de la sangre introduciendo un termómetro en el corazón de un reno, y ésta re-
sultó ser aproximadamente igual a la temperatura general del cuerpo del ani-
mal. Este experimento nos puede parecer muy simple, e incluso banal. Pero el
termómetro había sido inventado tan solo veinte años antes de los experimen-
tos de Borelli, así que para él un termómetro representaba casi lo mismo que
para nosotros la computación cuántica. Y nosotros los autores por poco escribi-
mos, siguiendo muchos de los relatos populares, que Borelli estableció que la
temperatura en el corazón de aquel reno era igual a 40°C pero a tiempo nos
percatamos de que en aquella época los termómetros no tenían escalas de gra-
dos Celsius, simplemente porque Anders Celsius (así como René Réaumur y
Daniel Fahrenheit) todavía no habían nacido.
En realidad, los trabajos de Borelli constituyeron el primer caso del amplio
uso de los logros de la física para el estudio de la materia viva.5 En su libro
“De motum animalium” (“Sobre el movimiento animal”), publicado en 1680,
Borelli describe el funcionamiento de los músculos sujetos a los huesos desde
el punto de vista de la teoría de las palancas. En este libro también explica de
manera correcta el movimiento de las piernas y del cuerpo de una persona que
se levanta desde la posición sentada o acostada, mediante la necesidad de tras-
ladar el centro de masas por debajo de la superficie de apoyo. También de ma-
nera correcta calcula las fuerzas desarrolladas por los músculos de las manos y
de los pies.
El descubrimiento de la presión atmosférica le permite a Borelli describir
la mecánica de la respiración: con el aumento del volumen del tórax el aire en-
tra a los pulmones bajo el efecto de la presión atmosférica. No obstante, la ne-
cesidad de la respiración queda oculta para Borelli, al igual que para Harvey.
Esto no nos debe sorprender: solamente cien años después de la publicación
del libro de Borelli el químico francés Antoine Lavoisier descubriría el papel
del oxígeno en la respiración.

5
Luego Ivan Mikhailovich Séchenov, un reconocido fisiólogo ruso, diría que “un fisió-
logo es una persona que estudia los organismos vivos mediante métodos físicos y quími-
cos”.
14

Por lo tanto, de nuevo podemos confirmar el argumento de que en aquellos


problemas de la fisiología, cuyo terreno no fue previamente preparado por los
logros de la física y la química, continúan prevaleciendo puntos de vista de au-
tores antiguos y sus explicaciones poco justificadas.
Todo lo dicho también puede ser aplicado a la fisiología de los músculos y
los nervios—el tema que estudiaba Galvani. El papel de los músculos en los
movimientos era conocido, pero no se sabía prácticamente nada acerca de las
causas de su contracción y alrededor de este tema reinaban ideas fantásticas.
Casi hasta la mitad del siglo XVIII la mayoría de los estudiosos considera-
ba que la causa de la contracción muscular, y de todos los movimientos en ge-
neral, era el alma. Se consideraba que ningún músculo por sí mismo tenía la
capacidad de contraerse, y que esta propiedad surgía solamente en aquel mo-
mento cuando el “espíritu animal” entraba al músculo.
Por otra parte, existían explicaciones mecanísticas de la contracción de los
músculos. Por ejemplo, René Descartes propuso que a través del nervio pasa al
músculo una sustancia similar a un gas ligero, la cual provoca la dilatación del
músculo, haciendo que éste se contraiga.6 Borelli consideraba que la contrac-
ción del músculo era parecida a la contracción de una cuerda mojada. Según él,
a través del nervio se difunde el “jugo nervioso” que hace que el músculo “se
empape”. No obstante, todas estas propuestas llegaban a la misma conclusión:
el músculo por sí solo es pasivo, a través del nervio debe llegar al músculo al-
guna sustancia (un gas, o el “espíritu animal”), y es ésta la que provoca la con-
tracción.
A mediados del siglo XVIII, la contracción muscular se hizo objeto de es-
tudios experimentales. El estudioso suizo Albrecht von Haller en una serie de
experimentos demostró que los músculos esqueléticos, los músculos del estó-
mago, y del corazón responden a estímulos mecánicos, químicos o eléctricos,
en condiciones cuando el músculo correspondiente se encuentra aislado del or-
ganismo y de los nervios. Examinando el desarrollo de embriones, Haller de-

6
Esta idea fue rechazada también de manera experimental. El científico inglés Francis
Glisson (1597-1677) inventó un equipo especial para determinar el volumen del brazo
del hombre y estableció que el volumen del músculo durante la contracción no aumenta-
ba, sino que incluso disminuía un poco.
mostró que el corazón comienza a latir incluso antes de que pueda ser detec-
tada su innervación.
En 1763, uno de los seguidores de Haller, Felice Fontana7, realizó un des-
cubrimiento muy importante. Él demostró que el músculo del corazón respon-
día o no respondía a un mismo estímulo en función del tiempo transcurrido
entre el último estímulo y un estímulo previo. Él determinó que después de una
estimulación previa, el corazón debe descansar cierto tiempo para poder vol-
verse sensible a una nueva estimulación.
De esta manera, a mediados del siglo XVIII surge la noción de la excitabi-
lidad de diversos músculos como una propiedad intrínseca de los mismos de
responder con una contracción a una estimulación directa. Los trabajos de Fon-
tana demostraron que la excitabilidad de los músculos es una variable cuyo va-
lor puede cambiar con el tiempo, y que sería conveniente poder medirla de al-
guna manera.
En lo que respecta a los nervios, su función, en general, había sido determi-
nada desde la antigüedad: los estudiosos griegos habían llegado a la conclusión
de que a través de los nervios se transmiten ciertas influencias: desde el cere-
bro hacia los músculos, y desde los órganos de los sentidos hacia el cerebro.
Pero en el siglo XVIII este resultado ya no era suficiente. Los estudiosos ya
querían saber cuál era la naturaleza de las señales que se transmitían a través de
los nervios. Los partidarios de la teoría de la “fuerza vital”, por supuesto, con-
sideraban que a través de los nervios se transmitía el “espíritu animal”, el cual
provocaba la contracción de los músculos. De la misma manera, a mediados
del siglo XVIII, durante el período de la moda por la electricidad, un mayor
número de estudiosos consideraba que a través de los nervios se transmite un
“fluido eléctrico”.
Acá tendremos que retornar por un momento a la historia de la física. Pre-
viamente nosotros presentamos algunos de los descubrimientos experimentales
del siglo: la botella de Leyden, el establecimiento de la naturaleza de los relám-

7
Aparte, Felice Fontana, estudiando el epitelio de la piel de las anguilas, descubrió y por
primera vez describió el núcleo celular y hasta el nucleosoma, proporcionando dibujos
exactos de estos (en el año 1781).
16

pagos, y otros. Pero a continuación añadiremos algunas palabras sobre las


teorías que circulaban en aquel entonces.
La electricidad en esos tiempos era considerada un “fluido eléctrico”, una
especie de líquido eléctrico. Esta hipótesis surgió después de que Gray descu-
brió que la electricidad podía “vaciarse” de un cuerpo en otro, cuando éstos
eran conectados mediante un alambre metálico u otro conductor. Esta hipótesis
fue inspirada por la noción de los procesos estudiados en otras ramas de la físi-
ca. La propagación de las ondas de luz era explicada mediante las propiedades
de un líquido sin peso alguno—el éter; el calor también era considerado un lí-
quido exento de peso. La hipótesis sobre la naturaleza de la electricidad tam-
bién comenzó a ser analizada experimentalmente. Los cuerpos electrizados
eran pesados minuciosamente, pero los científicos no pudieron detectar aumen-
to alguno en su peso. Por eso, la noción de que la carga eléctrica no tiene peso
surgió no solo como resultado de especulaciones, sino también por la baja
exactitud de las mediciones.
Cuando se llegó a la conclusión de que la carga eléctrica no puede medirse pe-
sando los objetos cargados, los físicos comenzaron a crear equipos basados en
principios completamente nuevos. Estos equipos—diferentes electroscopios y
electrómetros—surgen a mediados del siglo XVIII. En 1746 se crea el electró-
metro de Ellicot, en 1747—el electroscopio de Nollet, que lleva el nombre del
mismo abate que le demostró la descarga de la botella de Leyden al rey de
Francia en Versalles. Uno de los primeros electrómetros fue construido por Ri-
chmann.
Al principio los estudiosos pensaban que el fluido eléctrico era una especie
particular del líquido denominado “calórico”. Esto era argumentado por el he-
cho de que la fricción calienta y electriza los cuerpos, así como por el hecho
conocido de que las chispas pueden provocar la ignición de diversos objetos.
Finalmente, fue demostrado que los conductores de la electricidad también
conducen muy bien el calor, mientras que los aislantes casi no lo conducen. Sin
embargo, al final se determinó que el fluido eléctrico sin peso se distingue del
líquido calórico. Por ejemplo, se estableció que los cuerpos electrizados por
contacto, y no por frote, no se calientan. Posteriormente, Gray demostró que
los cuerpos huecos por dentro se electrizan de una manera completamente
igual a los macizos, y llegó a la conclusión de que el líquido calórico se difun-
de por todo el volumen del cuerpo mientras que el fluido eléctrico se difunde
solamente por la superficie de ese cuerpo.
De esta manera, las ideas sobre la electricidad como un fluido sin peso es-
taban bien comprobadas experimentalmente a niveles accesibles para la física
del siglo XVIII, y concordaban con la ideología general de la física de aquel
entonces.
Líneas arriba mencionamos que en aquellos tiempos se intentaba explicar
los fenómenos más diversos, incluso los terremotos, mediante mecanismos ba-
sados en la electricidad. El “mecanismo nervioso” tampoco fue una excepción.
En 1743, el estudioso alemán Hansen propuso la idea de que la señal transmiti-
da por los nervios es de naturaleza eléctrica. En 1749, el médico francés du Fay
presentó su tesis con el tema “¿Podría ser electricidad el líquido nervioso?”.
Esa misma idea la propuso en 1774 el científico inglés Joseph Priestley, quien
se hizo famoso por el descubrimiento del oxígeno. Como podemos apreciar, la
idea andaba suelta en el aire.
Todas estas ideas de la época hicieron que las dos líneas experimentales—
el estudio de la electricidad, por un lado, y de los procesos que tenían lugar en
los nervios y en los músculos, por otro, finalmente coincidieran. Surgió la es-
peranza de poder determinar si los procesos que ocurrían en los nervios tenían
naturaleza eléctrica. Adicionalmente, las descargas eléctricas eran utilizadas
ampliamente para la estimulación de los nervios, de los músculos esqueléticos,
o del corazón (la botella de Leyden fue utilizada con estos fines por Daniel
Bernoulli y por F. Fontana del que ya hablamos). Por ello ya no nos debe pare-
cer extraño o casual que en la mesa del médico Galvani, uno de los discípulos
de Fontana, y quien estudiaba el funcionamiento de los músculos y nervios,
hubiese un generador electrostático. Él no estaba siguiendo la moda. Él necesi-
taba este equipo porque estaba trabajando no solamente en un tema de frontera
de la fisiología de aquel entonces, sino en la intersección de dos campos del
conocimiento: la fisiología y la ciencia sobre la electricidad.
El 26 de septiembre de 1786
Después de todo lo dicho, nos deberíamos hacer otra pregunta: ¿qué fue lo que
atrajo la atención del ayudante de Galvani y por qué la contracción de los mús-
18

culos con las descargas eléctricas le pareció a Galvani tan maravillosa? Porque
el simple hecho de que la electricidad funcionara como un estímulo para los
nervios y los músculos ya era ampliamente conocido.
El detalle residía en que previo a las observaciones de Galvani la estimula-
ción era observada solamente en condiciones de un contacto directo entre el
cuerpo cargado y el músculo o el nervio. Pero en el experimento de Galvani no
había ningún contacto.
Habiendo encontrado un nuevo fenómeno desconocido, Galvani, como
verdadero hijo de su época, comienza a estudiarlo de distintas maneras. Por
ejemplo, él demuestra que el efecto puede ser observado cuando la patita de la
rana es colocada bajo una campana al vacío, o cuando en vez de utilizar el ge-
nerador electrostático la descarga es producida por una botella de Leyden. In-
cluso cuando la patita de rana era conectada entre un pararrayos y la tierra, ésta
se contraía cada vez que caía un rayo.
Sin embargo, a pesar de ser interesantes, estos experimentos no aportaban
algún principio o avance nuevo en el estudio de los fenómenos de la electrici-
dad en los organismos: tan solo fue descubierta otra forma de estimulación
usando la electricidad. Y los físicos ya sabían que los cuerpos también pueden
ser electrizados a distancia, sin que entren en contacto.
En 1786, Galvani comienza una nueva serie de experimentos, decidiendo
estudiar el efecto de la electricidad atmosférica “pasiva” sobre los músculos de
la rana (para ese entonces ya se sabía que la atmósfera siempre está cargada,
aun cuando no haya tormenta alguna). Después de haber descubierto que las
patitas de rana pueden fungir como una especie de electrómetro muy sensible,
Galvani intentó utilizarlas como un “equipo” para poder registrar la electrici-
dad atmosférica. Galvani colgó la preparación de la rana en la reja de su bal-
cón, estuvo esperando por mucho tiempo para ver la contracción, pero las pati-
tas no se contraían, sin importar si el día estaba soleado o lloviera.
Y, bueno, llega el 26 de septiembre de 1786 y las patitas por fin se contra-
jeron. Pero esto sucedió no por el cambio de las condiciones del tiempo, sino
por una causa completamente diferente: las patitas de la rana estaban sujetadas
a la reja de hierro del balcón mediante un ganchito de cobre y las puntas de las
patitas casualmente tocaron la reja.
Galvani revisa las condiciones en las que se observa la contracción y determina
que ésta ocurre cada vez que se forma un puente “hierro-cobre-patitas”, sin de-
pender de las condiciones climáticas reinantes. Galvani traslada sus experimen-
tos hacia el interior de la habitación, utiliza diferentes pares de metales y sigue
observando las contracciones de las patitas de la rana en estas condiciones
(Fig.1).
Este resultado ya era algo completamente nuevo: ya no se contaba con al-
guna fuente cercana de electricidad (no había ni un generador electrostático, ni
alguna tormenta), pero las patitas seguían contrayéndose.
Galvani realiza un experimento muy elegante, a la moda de aquellos tiem-
pos cuando las demostraciones públicas eran muy populares. Él cuelga la patita
de un gancho de cobre, conectado a un alhajero de plata que se encuentra por
debajo de la patita de tal manera, que la punta de la misma toca la tapa del
alhajero. La patita se contrae y se aparta del alhajero, el circuito se abre y en-
tonces la patita vuelve a su posición normal, de nuevo toca la tapa de alhajero,
de nuevo se contrae y así sucesivamente. Surge, como dice Galvani, algo pare-
cido a un péndulo eléctrico. (En realidad este sistema es un análogo completo
del interruptor en un timbre eléctrico, pero en aquellos tiempos no existían ni
corrientes, ni timbres.)
¿De qué manera se explicaban estas observaciones? Desde los tiempos de
Gilbert (¿te acuerdas de él?) se sabía que era imposible electrizar un metal me-
diante frotación. Galvani junto con otros estudiosos de su tiempo consideraban
que la electricidad no puede surgir en los metales, y que éstos pueden solamen-
te ser utilizados como conductores. Por esto Galvani concluye que la fuente de
electricidad se encuentra en los tejidos de la rana y los metales sirven única-
mente como conductores.
Pero ¿por qué se requieren dos metales diferentes en este circuito? Galvani
estudia esta cuestión y descubre que puede obtener un resultado similar incluso
utilizando únicamente el alambre de cobre. Cuando él utilizaba un solo metal,
las contracciones no siempre surgían y eran más débiles, pero él no le presta
suficiente atención a este detalle. Él observa la fuerza de la contracción, pero
no la mide. Lo importante para él es que no es necesario utilizar dos metales, y
por eso no son importantes.
20

Luigi Galvani trabajaba con una preparación de un músculo innervado: las pa-
titas traseras de la rana, con el nervio preparado y con una parte de la médula
espinal. En el primer experimento exitoso, cuando la patita estaba colgada en la
reja del balcón, el gancho de cobre atravesaba la parte de la médula y la punta
de la patita tocaba la reja de hierro, Galvani piensa que esas son las mejores

condiciones para el experimento y no prueba repetir el experimento cambiando


las condiciones. En todos sus experimentos una punta del alambre toca la parte
de la médula, y otra roza la superficie de la patita. Galvani se imagina lo si-
guiente: el músculo de la patita es un análogo de una botella de Leyden carga-
da, el nervio es un conductor que se conecta al recubrimiento interior de la
botella; cuando un conductor metálico toca el músculo (el recubrimiento ex-
terior de la botella) y el nervio (el recubrimiento interior), el músculo provoca
una descarga a través del nervio y esto ocasiona su contracción.Otros cuatro
años le toma a Galvani el estudio completo del fenómeno hallado y, por fin, en
1791 aparece su trabajo que resume su labor de diez años—el tratado “Sobre
las fuerzas de la electricidad durante el movimiento muscular” (“De viribus
electricitatis in motu musculari”).8
Galvani considera su descubrimiento como muy importante para la huma-
nidad. Es que, como ya habíamos dicho, en este tiempo surgieron múltiples in-
tentos empíricos de utilizar la electricidad para curar enfermedades, pero sin
ningún fundamento teórico. Galvani era primeramente médico y quería curar a
las personas. Él mismo escribía al final de su tratado que a continuación enca-
minaría todo su esfuerzo al desarrollo de una nueva rama de la medicina—la
electromedicina.
Pero Galvani no era solamente médico, sino también científico. Él entendía
que para desarrollar una rama así de la medicina era muy importante demostrar
que las reacciones eléctricas no son ajenas a los organismos vivos, que la elec-
tricidad tiene un vínculo muy estrecho con el funcionamiento de estos, que la
“electricidad animal” no se distingue en nada de la electricidad producida por
un generador electrostático. No ha de asombrar por ello, que luego de sus ex-
perimentos en ranas, Galvani comienza a experimentar con animales de sangre
caliente demostrando que los mismos resultados pueden ser obtenidos en las
preparaciones neuro-musculares de aves y mamíferos. Galvani llega a la con-
clusión de que ¡los fenómenos eléctricos tienen lugar en todos los animales y
hasta en los humanos! Galvani incluso especula sobre la causa probable de al-
gunas enfermedades (por ejemplo, propone que la parálisis puede estar relacio-
nada al daño del aislamiento de los nervios y, efectivamente, hoy en día cono-
cemos enfermedades provocadas por esta causa. También propone que la epi-
lepsia se encuentra relacionada a una fuerte descarga eléctrica en el cerebro, lo

8
Puedes ver como lucía el libro original siguiendo este enlace:
https://archive.org/details/AloysiiGalvaniD00Galv. El libro, como todas las obras
científicas de ese tiempo está en latín.
22

que, hablando en general, también es correcto) y sobre las aplicaciones curati-


vas de la electricidad.
Emitiendo su opinión sobre la existencia de la “electricidad animal”, Gal-
vani se basaba también en estudios previos de los peces eléctricos: su capaci-
dad para generar electricidad ya había sido bien demostrada. La raya eléctrica,
o torpedo (Torpedo torpedo) era conocida desde la antigüedad y la anguila
eléctrica fue descrita en el siglo XVII. Solo que en aquellos tiempos esos peces
no eran llamados eléctricos, porque no se sabía que sus efectos sobre el hombre
y los animales estuviesen relacionados de alguna manera con la electricidad.
Sin embargo, después del descubrimiento de la botella de Leyden, la des-
carga de la cual provocaba un efecto similar al del toque de una raya eléctrica,
el botánico francés Michel Adanson propuso que la descarga de los peces eléc-
tricos y las descargas de la botella de Leyden tenían una misma naturaleza. Re-
visando esta hipótesis, el investigador inglés John Walsh demostró que la des-
carga de la raya eléctrica se transmite a través de los conductores, pero no se
transmite a través de materiales aislantes y, al igual que en los experimentos
del abate Nollet, la descarga era transmitida a través de un grupo de personas
tomadas de la mano formando una cadena. Es decir, se obtuvieron evidencias
de que la naturaleza de la descarga de la raya era eléctrica. Finalmente, Walsh
observaba la descarga de la raya mediante una hoja de metal pegada a un vi-
drio, con un corte delgado en medio: durante cada descarga en el lugar del cor-
te se producía una chispa. En 1776 Henry Cavendish, sujetando alambres me-
tálicos al dorso y a la parte abdominal de la raya, pudo realizar mediciones de
la carga generada por este pez, utilizando un electroscopio.
También Galvani trabajó con rayas eléctricas, e incluso una de las especies
lleva su nombre: Torpedo galvani. Si las rayas pueden generar electricidad, en-
tonces, ¿por qué los músculos comunes no la pudieran generar? Y Galvani en
su tratado hace hincapié en la similitud entre la electricidad que surge durante
la fricción, la electricidad atmosférica, la electricidad de las rayas y la “electri-
cidad animal” descubierta por él.9
9
Es muy interesante, que, a pesar de la obtención de datos contundentes de que el efecto
de la descarga de la raya estaba relacionado con la electricidad, muchas personas opina-
ban que la “electricidad animal” debía distinguirse de la electricidad “normal”, debía lle-
var signos de distinción por su origen especial. Una de estas personas era Joseph Priestly,
Volta revisa el descubrimiento de Galvani y lo descarta
La aparición del tratado de Galvani provocó un enorme revuelo en varios paí-
ses. Al año siguiente se publica la segunda edición de su libro. Galvani se vuel-
ve famoso por un corto tiempo. Muchos de los grandes científicos se encargan
de repetir y revisar sus experimentos. Entre éstos se encontraba el físico ita-
liano Alessandro Volta, un discípulo del abate Nollet.
En ese entonces (en 1792), Volta ya era un físico reconocido, profesor de
la Universidad de Pavia y miembro de la Real Sociedad de Londres. Volta ya
había inventado un electroscopio nuevo muy sensible, el condensador eléctrico
y una serie de otros equipos. Sus intereses académicos durante toda su vida es-
tuvieron relacionados con la electricidad
y el trabajo de Galvani lo impresionó
mucho. Durante los primeros diez días
después de haber recibir el tratado de
Galvani, Volta realiza una inmensa canti-
dad de nuevos experimentos, confirma
por completo los resultados de Galvani y
se da a la tarea de introducir las medidas
en esta área nueva de la ciencia. Es decir
—él quiere realizar estudios cuantitativos
de la “electricidad animal”, medir su
magnitud con la ayuda de electrómetros
y determinar el tamaño de la carga nece-
Alessandro Volta (1745-1827)
saria para provocar la contracción del
músculo. (“Porque nunca se puede hacer algo realmente valioso, si los fenóme-
nos no son reducidos a las unidades y a las mediciones, sobre todo en la físi-
ca”—escribía Volta.) Ya en sus primeros experimentos Volta descubre que la
preparación de la rana es tan sensible y se contrae a descargas eléctricas tan

y medio siglo después—Humpfry Davy. Esta circunstancia obligó a Michael Faraday a


realizar en los años 1837-1839 una serie de estudios especiales, en los que demostró que
la electricidad obtenida por fricción, de los elementos galvánicos, conocidos para ese
entonces, y la electricidad de los peces no se distinguen de manera alguna entre sí. El
gran prestigio de Faraday sirvió para que todos por fin aceptaran que la electricidad
“animal” y la “común” son iguales.
24

El tratado publicado en 1791, que resume los experimentos realizados por Galvani.
pequeñas, que éstas no podían ser detectadas incluso con los mejores electró-
metros.
Galvani en todos sus experimentos conectaba una de las puntas del conduc-
tor metálico al nervio, y la otra punta—al músculo. Él usaba esta configuración
debido a su idea de que el músculo constituye una botella de Leyden que se
descarga a través del nervio.
Volta cambia las condiciones de los experimentos, hace diversas prepara-
ciones y conecta el alambre conductor de distintas maneras. A él le interesa la
parte cuantitativa, y por eso busca las condiciones para obtener la carga míni-
ma que provoca la contracción del músculo. De esta manera, él determina que
la mejor contracción surge cuando el contacto externo se conecta a dos partes
diferentes de un nervio bien preparado. Volta concluye que no es el músculo el
que se descarga a través del alambre metálico y el nervio, sino que, al revés, el
nervio, que es más sensible a la estimulación, se excita y transfiere algo al
músculo.
Volta cambia las condiciones de los experimentos, hace diversas prepara-
ciones y conecta el alambre conductor de distintas maneras. A él le interesa la
parte cuantitativa, y por eso busca las condiciones para obtener la carga míni-
ma que provoca la contracción del músculo. De esta manera, él determina que
la mejor contracción surge cuando el contacto externo se conecta a dos partes
diferentes de un nervio bien preparado. Volta concluye que no es el músculo el
que se descarga a través del alambre metálico y el nervio, sino que, al revés, el
nervio, que es más sensible a la estimulación, se excita y transfiere algo al
músculo.
La confianza de Volta en los resultados de Galvani empieza a desvanecer-
se. Si Galvani estaba equivocado al considerar al músculo como la fuente de la
“electricidad animal”, podría haber cometido también otros errores. Es aquí
cuando a Volta le surge la duda sobre el descubrimiento central de Galvani—la
existencia misma de la “electricidad animal”. Volta se pregunta ¿por qué entre
dos puntos cercanos y muy parecidos de un mismo nervio surge una descarga
cuando el circuito se cierra por un conductor? Esto contradice al principio de
causalidad. Pero además ¿por qué el conductor que cierra el circuito debe estar
compuesto por dos metales diferentes? Según Galvani, el papel de ese conduc-
26

tor simplemente consiste en cerrar el circuito. Pero para cerrar el circuito es


suficiente con tener un solo metal.
Volta comienza a estudiar esta cuestión a detalle. Él experimenta con dis-
tintos pares de metales. Si los metales nada más juegan el papel de simples
conductores, la naturaleza del metal no debe influir en el resultado. Pero si esos
metales por alguna razón son por sí mismos la fuente de electricidad (¡y en esto
consiste la idea revolucionaria de Volta, que pudo superar el peso y prestigio
de la opinión de Gilbert!) entonces la corriente generada puede depender de los
pares de metales elegidos. Y Volta encuentra esa relación. El efecto de dos sus-
tancias diferentes era mayor mientras más lejos se encontraban una de otra en
la siguiente fila: zinc, estaño, plomo, hierro, latón, bronce, cobre, platino, oro,
plata, mercurio, grafito, carbón. Viendo todos estos materiales, mencionados
en el trabajo de 1794, podemos ver la enorme actividad que desarrolló Volta.
Volta estaba cada vez más seguro de que la fuente de electricidad en los expe-
rimentos de Galvani no residía en el músculo de la rana, sino en los dos meta-
les con los que él rozaba su preparación.
¡Pero Galvani pudo observar la contracción de los músculos incluso utili-
zando un solo metal! Volta estudia esta condición con detalle y demuestra que
dos tipos de alambres de cobre pueden contener diferentes impurezas, y que es
suficiente con ensuciar una de las puntas del alambre de cobre para que ésta se
comporte como si fuera otro metal; es suficiente con una pequeña diferencia de
temperaturas en ambas puntas del alambre metálico para que éste pueda esti-
mular al músculo.
Por fin Volta llega a su conclusión: el contacto de dos metales diferentes es
una fuente nueva de electricidad, a la cual el “electroscopio vivo” es muy sen-
sible. ¡Es con esto con lo que se pueden explicar los experimentos de Galvani!
Esta conclusión Volta la comprueba además con otra serie de diversos ex-
perimentos. Por ejemplo, Volta toma dos alambritos de plata y estaño, los une
por unas de sus puntas y toca con las otras su lengua: con un metal toca la pun-
ta de la lengua y con el otro—un poco más adentro en la boca. Él descubre que
si la punta de la lengua es tocada por el alambre de plata se siente un sabor bá-
sico (como el del bicarbonato de sodio), en cambio si la punta de la lengua se
toca con el alambre de estaño, se siente un sabor ácido (como el del limón o
del vinagre). Si la fuente de electricidad fuera el músculo de la lengua, enton-
ces el sabor no debería cambiar en función del metal que toque la punta de la
lengua—pensaba Volta. Pero si la fuente de electricidad son los dos metales di-
ferentes, entonces sí es entendible que cambiándolos de posición cambiamos el
lado “positivo” por el “negativo”. En uno de los casos el fluido eléctrico entra
a los nervios que se encuentran en la punta de la lengua, y en el otro—sale de
ellos. Es precisamente este fenómeno el que provoca un sabor diferente. Enton-
ces, ¿pudiera ser que el funcionamiento de todos los órganos de los sentidos
estuviera relacionado con la electricidad? —se pregunta Volta (y, como sabe-
mos ahora, esto es precisamente así).
Recordemos que en esta época que estamos describiendo estaba muy de moda
realizar experimentos públicos llamativos. Galvani inventó un experimento de
este tipo—el “péndulo eléctrico nervioso”—cuando la patita de la rana colgada
de un ganchito de cobre rozaba el alhajero de plata (¡Esto se debe al cobre y a
la plata!—diría Alessandro Volta.) Así que Volta también diseñó un experi-
mento muy llamativo.
Cuatro personas “… se forman en cadena, tocando una la punta de la len-
gua de la siguiente, ésta a su vez tocaba ligeramente el ojo de su vecino, y dos
más sujetan con los dedos mojados una preparación fresca de una rana: uno
de ellos la sujeta por la punta de la patita, y el otro—por la parte de la médu-
la. Finalmente, el primero en la fila sujeta en la mano mojada una lámina de
zinc, y el último—una lámina de plata. Ellos juntan las láminas. En ese mismo
momento la punta de la lengua tocada por la persona que tiene la lámina de
zinc sentirá un sabor ácido; el ojo, tocado por el dedo del vecino, verá una es-
pecie de fulgores de luz; y, al mismo tiempo, las patitas de la rana, que se en-
cuentran entre las dos manos, empezarán a contraerse de una manera fuerte”.
Todos los nervios que resulten en el camino del fluido eléctrico—los nervios
de la lengua, del ojo, de la rana—simplemente son electrómetros muy sensi-
bles, y los metales que son juntados uno con el otro, no son simples conducto-
res, sino los “motores” de la electricidad. “De esta manera, en vez de hablar
de la electricidad animal, se podría hablar, con más derecho, sobre la electri-
cidad de los metales” (Volta, 1794). Porque si esas cuatro personas formadas
en cadena sueltan las láminas de plata y de zinc y simplemente se toman de las
manos, no pasará nada. Según Galvani, la descarga de la “botella de Leyden
28

viva” que se encuentra dentro de la rana, debe surgir de una manera más efecti-
va, porque el circuito es más corto (se le quita una parte al circuito sin añadirle
otra) pero el efecto no surge. Entonces, la causa no se encuentra en la rana,
sino en los metales—en el contacto entre la plata y el zinc.
De los ejemplos mencionados se puede ver claramente que Volta estaba en
lo cierto: en el famoso tratado de Galvani no se presenta ninguna prueba de la
existencia de la “electricidad animal”. La observación realizada por Galvani el
26 de septiembre de 1786, el día del nacimiento de la Electrobiología, era oca-
sionado por un fenómeno puramente físico, basándose en el cual Volta creó el
elemento de corriente continua: el elemento o columna galvánica. Este invento
yace en la base del desarrollo de los estudios de la electricidad y la electrotéc-
nica y será el que convertirá al siglo XIX no solo en el siglo del vapor, sino
también en el de la electricidad.

Pero ¿qué tiene que ver acá la electrobiología?


Desviándonos un poco hacia el tema de los caminos de la ciencia. Concen-
trémonos por un minuto y reflexionemos sobre todo lo que averiguamos, no
solamente sobre la historia del descubrimiento de la “electricidad animal”, sino
sobre la ciencia en general. Uno de los objetivos principales de las páginas que
ya leíste era presentarte el panorama típico del desarrollo de la ciencia.
El primer aprendizaje que podemos obtener de todo lo relatado, es que la
ciencia es un sistema unificado de áreas en interacción, que las teorías sobre el
calor influyen en las teorías sobre la electricidad, que los descubrimientos en el
área de la física influyen en el desarrollo de la biología, y que la solución de
problemas biológicos (de si existe la electricidad generada por los organismos
vivos) conduce a Volta a un descubrimiento meramente físico. En la escuela se
pueden enseñar las materias por separado (y así es como debe ser), en las uni-
versidades se crean distintas facultades, los institutos de investigación científi-
ca también se especializan más o menos en cierta problemática. Pero en la na-
turaleza todos los fenómenos están relacionados de una manera muy estrecha,
están entrelazados y muchas veces no desean ser clasificados dentro de la espe-
cialidad de una que otra dependencia académica.
Segundo, cualquier nuevo descubrimiento, cualquier teoría o experimentos
nuevos son la continuación de los experimentos y teorías previos—esta es una
de las propiedades de la continuidad del desarrollo de la cultura. Newton decía:
“Si yo veía más que los demás, esto se debe únicamente a que yo me apoyaba
en los hombros de gigantes”.
Es notable el carácter internacional de la ciencia: los conductores fueron
descubiertos en Inglaterra, la Botella de Leyden—en Alemania, Franklin traba-
jaba en América, Richmann—en Rusia, Galvani y Volta—en Italia.
Nosotros pudimos apreciar que incluso en el siglo XVIII los nuevos descubri-
mientos ya trataban de ser aplicados en la práctica (por ejemplo, Volta inventa
su elemento galvánico en el año 1799, y el libro de Vasíly V. Petróv sobre la
utilización del arco voltaico [utilizado para soldar metales] sale a la luz ya en
1803). La opinión que muchas veces podemos encontrar en la literatura, de que
en tiempos anteriores desde un descubrimiento hasta su aplicación práctica a
veces transcurrían decenas de años, es probablemente un mito, y no un hecho
real. Los descubrimientos encontraban su aplicación de manera tan rápida, que
de ese proceso muchas veces se aprovechaban los charlatanes.
Nosotros queremos sobre todo recalcar la importancia del experimento en
la ciencia y el papel de la personalidad del investigador en el descubrimiento.
Las descripciones banales, tales como “para solucionar un problema el científi-
co realizó un experimento y determinó que…” pocas veces corresponden a la
realidad. Un mismo experimento puede ser interpretado de distintos modos por
diferentes personas. Galvani realizó el experimento cerrando el circuito con
dos metales diferentes, pero él no le dio mucha importancia a ese detalle, con-
siderándolo insignificante. En esta actitud se reflejaban sus intereses como mé-
dico: él quería utilizar la electricidad para curar a las personas, y por eso pri-
mero debía determinar que la electricidad no era un fenómeno ajeno a los orga-
nismos vivos, incluso al revés, es algo intrínseco al funcionamiento de los ner-
vios y los músculos. En su trabajo también influyó su conocimiento sobre los
peces eléctricos, que sí pueden generar electricidad; Galvani estaba buscando
un fenómeno específico y pensó que lo había encontrado. Podemos ver enton-
ces, que es de mucha importancia la experiencia previa del investigador, sus
emociones, los objetivos que pone ante sí mismo.
Volta dio otra explicación a los resultados del mismo experimento: el fenó-
meno no se debe a la existencia de la “electricidad animal”, sino a la electrici-
30

dad metálica. Pero para comprobar esta conclusión Volta no solo debía repetir
el experimento de Galvani, también debía inventar decenas de nuevos
experimentos, algunos de los cuales describimos.
Inventar un experimento y realizarlo es solo una parte del trabajo. Por lo
general, el experimento permite muchas interpretaciones diferentes, y para ele-
gir la correcta, por lo general se necesita realizar otros experimentos más.
Aparte, la interpretación del experimento depende mucho del nivel de conoci-
miento de la época de la que estemos hablando. Recordemos tan solo que mal
jugada le hizo a Galvani la seguridad en la conclusión teórica de Gilbert.
A veces existen varias interpretaciones posibles de un experimento y se lo-
gra realizar un nuevo ensayo que permite elegir entre esas alternativas. Un ex-
perimento así es llamado crítico. No obstante, no es raro que luego se descubra
que haya sido omitida alguna otra interpretación.
El experimento es un paso en el avance de la ciencia, un paso que, por lo
general, lleva a más de un camino. La ciencia es un proceso continuo de traba-
jo de la mente antes del experimento (porque si no, no lo podemos diseñar),
durante el experimento, y, sobre todo—después de haberlo realizado.
La discusión entre los partidarios de Galvani y los partidarios de Volta
Regresemos ahora con Galvani. ¿Cómo reaccionó a la crítica de Volta? Porque
las conclusiones a las que llegó Volta destruían sus esperanzas de crear una
nueva rama de la medicina. En respuesta, Galvani pone todo su esfuerzo en
comprobar su teoría. Entre 1794 y 1797, él realiza muchos experimentos para
comprobar su descubrimiento. En sus nuevos experimentos, él no utiliza nin-
gún metal (incluso la preparación de la rana se realiza con instrumentos de vi-
drio). Veamos tres de esos experimentos.

Experimento 1. Se tomaba un músculo con el nervio saliente. La parte más


alejada del nervio era cortada y se ponía en contacto con el músculo median-
te una varilla de vidrio. En el momento en que se producía el contacto, el
músculo se contraía. Para que el experimento se pudiera repetir era necesario
utilizar un nervio recién preparado. Galvani nota que, al parecer, el lugar del
corte del nervio tiene un papel importante. En este experimento, al igual que
en el experimento con los dos metales él demuestra una gran habilidad de ob-
servación.
Experimento 2. En este experimento fueron utilizados dos músculos con
los nervios salientes (Fig.2). Un nervio se colocaba en forma de arco, y el se-
gundo era colocado de tal manera que una de sus partes tocara en una parte
intacta del primer nervio, y la otra parte
del segundo nervio era colocada cerca E
N
del lugar del corte del primer nervio. El
M
músculo unido al segundo nervio se con- M
C N
M

traía. (¡Nótese que aquí también figura C


1
N
3
2
un nervio recién cortado!) Este experi-
mento demuestra que entre las partes in-
tacta y cortada del nervio corre un fluido Fig.2 Los nuevos experimentos de
eléctrico (para ese entonces Volta ya em- Galvani: M — músuclos, N — nervios, C
— lugar del corte, E — lugar del estímulo
pieza a utilizar el término “corriente”).
Experimento 3. De nuevo se tomaban dos músculos con los nervios salien-
tes (Fig.2). El nervio del segundo músculo era colocado sobre el primer mús-
culo. El primer nervio era estimulado, provocando la contracción del primer
músculo. En todos los casos después de esto también se contraía el segundo
músculo. En este experimento el corte del nervio no jugaba ningún papel im-
portante. El músculo que se contraía de cierta manera influía en el nervio que
tenía colocado encima.

Desafortunadamente, estos experimentos Galvani ya no los alcanzó a pu-


blicar—él solo los describía en cartas particulares. Pero él tenía una serie de
simpatizantes que publicaron la descripción de muchos nuevos experimentos
que comprobaban las ideas de Galvani.
Volta y sus partidarios presentaron tres argumentos principales en contra de
estos experimentos.

Primero, Alessandro Volta supuso que el “motor” del fluido eléctrico podía
ser no solo el contacto de dos metales, sino también de dos líquidos diferentes
(y esto, en general, es correcto, como veremos a continuación). Pero en todos
los experimentos de Galvani necesariamente había varios líquidos: no se debía
32

secar la preparación de la rana, porque de lo contrario no serviría. Entonces,


era imposible demostrar que la electricidad es generada por un organismo vivo
y no por el contacto de soluciones diferentes. Asimismo, se hacía imposible
demostrar que la preparación neuromuscular juega el papel de “electroscopio
vivo”.
En segunda, en todos los experimentos de Galvani existe un movimiento
mecánico—o se mueve al nervio, o se contrae el músculo. Es posible que la
causa de las contracciones del músculo sea la estimulación mecánica—propone
Volta.
Finalmente, aceptemos que el músculo que se contrae puede estimular al
nervio. Pero ¿de dónde sale la conclusión que eso sucede a través de un fenó-
meno eléctrico? Ya se sabía que el nervio podía ser estimulado por presión, por
calentamiento, por un tratamiento químico, etc. ¿Dónde estaba la prueba de
que el factor estimulante en los experimentos de Galvani era precisamente la
corriente eléctrica?
A pesar de la ayuda de amigos y seguidores, y el apoyo de grandes científi-
cos como Alexander von Humbolt, Galvani salió perdiendo en la discusión con
Volta. Los argumentos de Volta parecían muy razonables. En 1797 llega la rui-
na final: Galvani por motivos políticos es expulsado de la universidad. Él pier-
de la oportunidad de trabajar y muere un año después.
No obstante, Volta se equivocó. En los tres experimentos descritos arriba
Galvani efectivamente estaba tratando con la “electricidad animal”, que al fin
supo descubrir.
Después de la invención del elemento de corriente continua Volta se hace
famoso y es aceptado por todos. En 1801 Napoleón lo invita a París, donde
muestra su columna voltaica en la Academia de Ciencias. Volta murió en 1827
a los 82 años, rodeado de gloria.
Las vidas de Galvani y Volta terminaron de manera muy diferente. Pero si
nos distraemos de los destinos humanos y revisamos el destino de los principa-
les descubrimientos científicos realizados por Galvani y Volta, veremos cierta
analogía.
Sobre la historia de la electricidad “metálica” descubierta por Volta
Cuando Alessandro Volta inventó el elemento galvánico, surgió la pregunta:
¿cuál es la causa del surgimiento de la corriente eléctrica—el contacto entre los
dos metales, o el contacto entre metales y líquidos? Volta intentó eliminar los
líquidos y realizó el siguiente experimento. Sobre un electroscopio muy sensi-
ble colocó un disco de cobre, recubierto por encima de una delgada capa de
aislante. Sobre éste colocó un delgado disco de zinc, con una agarradera de
material aislante. Los dos discos por un pequeño instante eran conectados con
un alambre de cobre (Fig 3). Luego los discos eran desconectados y el de arri-
ba (el de zinc) era retirado. El electroscopio mostraba la presencia de una carga
(Fig. 3). Volta explicaba el experimento de la siguiente manera: cuando dos
metales diferentes se conectaron, ambos recibieron una carga opuesta (Fig. 3).
Pero esas cargas, atrayéndose, se distribuían alrededor del material aislante.
Cuando el disco de arriba fue retirado, las cargas del
disco de abajo alcanzaron las hojas-pestañas del elec-
– –– – –– – troscopio, y éstas se separaron. Y en este experimen-
–– – –– ––
+++++++ + + +
to no había ningún líquido. Entonces, ¡todo el fenó-
meno depende del contacto entre los dos metales!
+ Pero con los metales no sucedía nada, solamente se
cargaban. Entonces, como decía Volta, él logró des-
1 2
cubrir una fuente de electricidad que podía funcionar
Fig. 3 Experimentos de Volta solamente con el contacto de dos metales, sin
con dos discos metálicos cambiarlos, ni gastarlos.
Solo que existía un “pequeño detalle”: desafortunadamente el electrodo de
zinc en los elementos galvánicos, quién sabe por qué motivo, se oxidaba todo
el tiempo y el óxido de zinc interrumpía la corriente. Esto obligaba a estar lim-
piando los electrodos de manera constante. Volta intentaba una y otra vez con-
seguir un mejor diseño de su elemento, pero no podía deshacerse del óxido.
Pero él estaba seguro de que la tarea tenía solución y de que había logrado su
propósito—¡construir el móvil perpetuo!
Después del descubrimiento de la ley de conservación de la energía los fí-
sicos y los electroquímicos criticaron fuertemente las conclusiones de Volta.
¡No puede fluir una corriente y haber liberación de calor sin ningún gasto de
34

energía! No puede haber fenómenos eléctricos solamente por el contacto de


dos metales; en el aire siempre hay vapor de agua que se asienta sobre los me-
tales y los oxida. Volta descubrió no la electricidad “metálica”, sino la “quími-
ca”, porque en sus elementos la energía química se transforma en energía eléc-
trica, ¡y era por eso que el zinc se oxidaba!
¡Con qué exactitud se repite la historia de Galvani! Luigi Galvani en reali-
dad descubrió la “electricidad metálica” y pensó que había descubierto la
“electricidad animal”—decía Volta. Galvani se equivocó, porque no le dio sig-
nificado a un dato importantísimo, que contradecía su teoría—la necesidad de
la presencia de dos metales diferentes (más bien, sí prestó atención a este he-
cho, pero lo consideró insignificante). Volta descubrió la “electricidad quími-
ca” y pensaba que había descubierto la “electricidad metálica”—escribió
Wilhelm Ostwald en su libro “Grundriss der allgemeinen Chemie” (“Historia
de la Química”). Volta no le hizo caso, o más bien—subestimó el significado
de un hecho importantísimo que contradecía su teoría del móvil perpetuo—la
oxidación de sus electrodos.
Pero lo más interesante es que tanto Galvani, como su crítico Volta estaban
en lo cierto, así como Volta y su crítico Ostwald. En realidad, Galvani descu-
brió dos fenómenos distintos—la “electricidad animal” y la “metálica”. Pero él
consideraba que había descubierto solamente la primera de ellas, y Volta pen-
saba que solo existía la segunda. De la misma manera, Volta realizó dos descu-
brimientos—la diferencia de potenciales que surge entre dos metales que en-
tran en contacto, y las fuentes químicas de electricidad (lo que hoy llamamos
baterías). Pero Volta pensaba que había descubierto solo el primero de estos fe-
nómenos, mientras que su crítico Ostwald aceptaba solamente el segundo. (La
dificultad en distinguir varios fenómenos que se presentan al mismo tiempo, o
en experimentos parecidos, es una situación muy típica en la ciencia, y noso-
tros nos toparemos con ello en más de una ocasión.) Solamente el avance de la
ciencia demostró lo correcto y lo incorrecto de las ideas de Galvani, de Volta y
de Ostwald.
La rehabilitación de Galvani

Así pues, Galvani murió derrotado y sin ser aceptado, y los seguidores de
Volta cantaban victoria. Pero los caminos de la ciencia son inconcebibles.
Después de que Volta inventó el elemento galvánico y los físicos obtuvie-
ron una fuente de corriente continua, comenzó el rápido desarrollo de la elec-
trodinámica, estimulado por una serie de aplicaciones prácticas de la corriente
eléctrica. Esto, al fin y al cabo, permitió demostrar la razón de Galvani.
Ya en el año 1800 había sido descubierto el efecto del calor generado por
la electricidad. En 1803 salió publicado el libro del ruso Petróv sobre el arco
voltaico. En 1820, el físico danés Hans Oersted descubrió el efecto de la co-
rriente eléctrica sobre la aguja de la brújula, tendiendo de esta manera un puen-
te entre la electricidad y el magnetismo, que hasta entonces se desarrollaban
por separado. Y en el transcurso de un año (con ello tenemos la evidencia de
que las aplicaciones prácticas llegaban pronto) siguen las maravillosas aplica-
ciones de ese descubrimiento: Amper propone la idea de un telégrafo electro-
magnético, los físicos Barlow y Faraday construyen los primeros prototipos
primitivos de los motores eléctricos y Schweiger inventa el galvanómetro—el
instrumento utilizado para las mediciones de la corriente continua. Al fin había
aparecido un método objetivo y un instrumento para la medición de pequeñas
corrientes, que se registraban previamente utilizando las patitas de rana.
El funcionamiento del galvanómetro de Schweiger estaba basado en el
efecto que tiene una bobina con corriente sobre una aguja magnética, aunque
este instrumento era sensible también al campo magnético de la Tierra, lo que
creaba muchas molestias para llevar a cabo experimentos exactos. En 1821,
Amper propuso fijar en un eje dos agujas magnéticas de tal manera que sus po-
los opuestos se encontraran uno sobre el otro; esta innovación permitió desha-
cerse del efecto del campo magnético de la Tierra. Schweiger al principio ais-
laba los alambres con cera o lacre (material utilizado en aquel tiempo para se-
llar las cartas de personas importantes), pero después de varios años y con la
creación del telégrafo, los conductores se empezaron a aislar con seda. Los físi-
cos por fin obtuvieron un instrumento de medición seguro y sensible.
En los años 1826-1827 el físico alemán Georg Ohm descubrió la ley que
lleva su nombre. Para la electrobiología lo más importante era que Ohm intro-
dujo los términos “corriente” y “resistencia” que tanta falta le hacían a Galvani
y a Volta.
36

En 1825 el físico florentino Leopoldo Nobili construyó un galvanómetro muy


sensible, y en 1827 con la ayuda de ese instrumento logró por primera vez de-
terminar la diferencia de potenciales existente en dos partes diferentes de una
rana. Pero, como ya dijimos, no basta con realizar un experimento, también
hay que saber interpretarlo de la manera correcta. Nobili era seguidor de Volta,
y explicó su hallazgo argumentando que la diferencia de potenciales se debía a
que un fragmento del tejido de la rana tenía una temperatura mayor que el otro,
ya que la velocidad de evaporación de los líquidos en estas partes no podía ser
igual. Es así como Nobili pasa por alto un descubrimiento muy importante.
El prestigio de Volta jugó su papel no menos importante que el prestigio de
Gilbert en el caso de Galvani.
En 1837 otro científico italiano, Carlo Matteucci, emprende una revisión
objetiva de los experimentos de Galvani y sus seguidores utilizando un galva-
nómetro (Fig.4).
G G G

I + E I + E I –
– – +
L L I
M
1 2 3
Fig. 4 Experimentos de Matteucci. 1 — registro del potencial de lesión; 2 —
disminución del potencial de lesión durante la excitación del músculo: 3 — registro
del potencial en un músculo intacto excitado. [M — músculo, I — región intacta (sin
lesión), L — lesión, G — galvanómetro, E — zona del estímulo]

Primero, Matteucci descubrió que entre la parte intacta y la parte dañada del
músculo existe una diferencia de potenciales, y que la parte dañada siempre
está cargada negativamente (Fig.4). La corriente que fluía hacia la parte dañada
fue denominada corriente de lesión. Este resultado de Matteucci explicaba los
resultados obtenidos en los dos primeros experimentos de Galvani que descri-
bimos (Fig.1), porque Galvani también propuso que entre la parte íntegra y la
parte dañada del músculo corre un fluido eléctrico. Aunque, a decir verdad,
Matteucci pudo registrar solamente la corriente de lesión del músculo, pero no
la del nervio (la sensibilidad del instrumento no era la suficiente). Pero si con-
sideramos que la situación con el nervio dañado es similar, entonces queda
claro que la parte dañada funciona como una fuente de electricidad, que en el
primer experimento de Galvani excitaba al músculo de la rana y en el segundo
—al nervio.
Matteucci determinó que durante la estimulación del músculo dañado la
corriente de lesión disminuía inexplicablemente (Fig.4). Este hecho asombró
mucho al experimentador: supuestamente durante la estimulación ¡todo debe
aumentar, pero no disminuir!
Por fin, Matteucci repitió el famoso tercer experimento de Galvani, mos-
trando de manera directa que durante la estimulación de un músculo intacto en-
tre sus partes corre una corriente que puede estimular al nervio colocado por
encima (Fig.4).
Los trabajos de Matteucci tenían una importancia fundamental: previamen-
te el único instrumento de medición que tenían los investigadores en sus manos
eran las patitas de rana, por lo que no existía la seguridad de que los procesos
de excitación estuviesen relacionados con los fenómenos eléctricos. Después
de los trabajos de Matteucci esto ya estaba comprobado.
Recordemos que todo lo relatado sucedió en el año 1837. Este era el año
del centenario del nacimiento de Galvani y al mismo tiempo el año de su gloria
póstuma. Fue comprobado que sus últimos experimentos habían sido interpre-
tados de manera correcta. En 1841 aparece publicada la obra completa de
Galvani. Galvani recobra su fama que ahora ya será para siempre.
38

Capítulo 2

Los primeros pasos de la electrobiología

La ciencia, al contrario de lo que piensan los profanos, muy rara vez se


desarrolla siguiendo un camino lógico recto. En realidad, cada paso hacia
adelante (y a veces—hacia atrás) frecuentemente es un acontecimiento
profundamente personal, en el cual el papel primordial lo juegan el carácter
de la persona y las tradiciones nacionales.
James Watson “The Double Helix” (“La Doble Espiral”).
Si en la primera mitad de nuestro recuento el lugar y la fecha de los aconteci-
mientos pudieran ser resumidos como Italia, siglo XVIII, a continuación “cam-
bian las decoraciones” y ahora tenemos en la escena a la Alemania del siglo
XIX.
Pero cambian no solamente el lugar y la fecha, cambia el carácter mismo
de la ciencia. En el siglo XVIII la ciencia era una actividad de personas indivi-
duales, muchas de las cuales eran amateurs. En el siglo XIX ser científico ya se
convierte en una profesión: su trabajo ya no dependía tanto de la caridad de los
mecenas (patrocinadores, diríamos hoy en día) o de su propia fortuna. En estos
tiempos los científicos trabajan ya en laboratorios o incluso en institutos cientí-
ficos especiales. Este ambiente facilita la comunicación personal, permite el in-
tercambio de opiniones, acelera la difusión de nuevas ideas. Mostremos un
ejemplo importante para nuestro relato.
En los años 30 del siglo XIX en la Universidad de Berlín trabajaban dos jó-
venes investigadores—Matthias Schleiden y Theodor Schwann. El botánico
Schleiden durante uno de sus encuentros le contó a su amigo, el zoólogo
Schwann, que en todas las células de las plantas hay un núcleo que tiene una
función muy importante en el funcionamiento de las células. Entonces, el zoó-
logo Schwann pensó que las “burbujitas” que él veía en los tejidos de los ani-
males (y que no eran consideradas como células por no tener paredes celulares
bien definidas, como las plantas) en realidad son verdaderas células, ¡porque
también tienen núcleos! Con la ayuda del microscopio los dos investigadores
pudieron comprobar que en ambos casos la imagen era muy parecida. De esta
manera, el contacto personal de dos biólogos aceleró la formulación de la
teoría celular, propuesta en 1839.
En general, la aparición de colectivos de investigadores y de escuelas aca-
démicas es una de las características de la ciencia del siglo XIX. Los científi-
cos perteneciente a una misma escuela desarrollaban una postura única ante
cierta cuestión, tenían varios alumnos comunes, intercambiaban resultados. En
cierto sentido, una escuela académica funcionaba como un intelecto colectivo.
El desarrollo subsecuente de la electrobiología está íntimamente vinculado
al colectivo académico encabezado por el profesor Johannes Müller, de la Uni-
versidad de Berlín. Sus discípulos fueron Theodor Schwann—el autor de la
teoría celular, Rudolf Virchow—uno de los creadores de la rama de la fisiolo-
gía celular, Ernst Haeckel—un darwinista muy famoso, que formuló la teoría
de la recapitulación, Hermann von Helmholtz—uno de los descubridores de la
ley de conservación de la energía, y muchos otros más. También fue su discí-
pulo Emil du Bois-Reymond—el “padre” de la Electrofisiología.
Du Bois-Reymond y sus amigos
Desde que era estudiante, du Bois-Reymond junto con sus amigos Carl Lu-
dwig, Ernst Bruke y Hermann Helmholtz (los primeros dos estudiaban con du
Bois, y Helmholtz estudiaba en el Instituto de Medicina Militar, ya que no po-
día pagar por sus estudios en la universidad; después del Instituto tuvo que tra-
bajar por varios años como médico militar, para pagar por sus estudios) se
propusieron un programa académico muy claro: crear una nueva biología—la
biología fisicoquímica.
En una de las primeras cartas, du Bois escribía: “Bruke y yo nos juramos
uno al otro establecer la verdad: que en los organismos no tienen lugar otras
fuerzas que no sean las físicas y las químicas”.

Las palabras “otras fuerzas” hacen referencia a la “fuerza vital”, con la


ayuda de la cual la mayoría de los científicos (incluyendo a su tutor Johannes
Müller) explicaban los procesos fisiológicos. Contrario a este supuesto, los
cuatro amigos postulaban que la Física debía ofrecer no solo un ejemplo de
40

metodología experimental para el estudio de la naturaleza, o de explicaciones


sólidas, sino que también debe emplearse en forma directa para explicar los
procesos biológicos. Ellos consideraban que el conocimiento de la física es ne-
cesario para los biólogos y que los libros de texto que ellos escribirían siendo
ya famosos y teniendo mucha experiencia, comenzarían con una exposición de
las leyes físicas. En todos sus trabajos en el estudio de los más diferentes fenó-
menos fisiológicos (el funcionamiento del órgano auditivo, de los riñones y
otros) los amigos se apegaban a su programa biofísico.
La vida académica de du Bois fue muy exitosa. Ya a los 33 años él fue
aceptado como miembro de la Academia Prusiana de las Ciencias. Él consiguió
crear un instituto especial, en el que había departamentos de física, de química,
de estudios microscópicos, talleres especiales en los que se elaboraban instru-
mentos y equipos. A este instituto venían a trabajar muchos científicos alema-
nes y extranjeros. Precisamente gracias a los resultados obtenidos por du Bois-
Reymond surgió una rama nueva de la fisiología—la fisiología de los músculos
y los nervios.
6
G

4
2 1
A
3

C B 5
Fig. 5 Los equipos de du Bois-Reymond: A — electrodos no polarizables, B
— estimulador de deslizamiento de du Bois-Reymond (1 — bobina primaria, 2
— bobina secundaria, 3 — interruptor de Neff, 4 — elemento galvánico de
Daniel, 5 — escala, 6 — llave), C — electrodos de estimulación, G —
galvanómetro
Emil du Bois-Reymond (1818-1896)

Pero todo comenzó cuando, en 1841, Johannes Müller le encomendó a du Bois,


un estudiante de 22 años del sexto semestre de la universidad, un tema para es-
tudio individual—repetir los experimentos de Matteucci, que para ese entonces
ya era académico. Du Bois se entusiasmó con el tema, y aunque a continuación
tocó en su investigación otras áreas (algunas veces nada más relacionadas con
la física), el dedicó prácticamente toda su vida académica a la electrofisiología.
Reflexionando sobre la tarea encomendada por Johannes Müller, du Bois
entendió que “repetir” los experimentos de Matteucci no sería fácil: en ese en-
tonces cada investigador tenía instrumentos de construcción propia, por lo que
era prácticamente imposible comparar los resultados obtenidos entre diferentes
42

científicos. Por eso du Bois, durante su tesis de licenciatura, se dio a la tarea


diseñar un equipo especial que permitiera comparar los resultados obtenidos en
los diferentes laboratorios. Él inventó una serie de equipos que permitían aten-
der todos los momentos principales de la investigación: la estimulación de los
músculos y los nervios, los elementos que conducían la señal (biopotenciales)
de los músculos y los nervios hacia el instrumento, y el registro de estas
señales.

El equipo para la estimulación, denominado “estimulador de deslizamiento


de du Bois-Reymond” permitía dosificar de una manera muy exacta el estímu-
lo eléctrico (Fig.5). El equipo consistía en dos bobinas con un gran número de
bucles. Una de las bobinas se deslizaba dentro de la otra mediante un mecanis-
mo especial de deslizamiento. La bobina interna (primaria)—estaba conectada
a la fuente de electricidad—el elemento galvánico de Daniel, con un valor co-
nocido de la fuerza electromotriz. El circuito incluía un interruptor—el inte-
rruptor de Neff, uno muy parecido al utilizado en algunos timbres eléctricos.
En la segunda bobina se inducía una corriente (¡es así como el descubrimiento
de Faraday fue utilizado en los estudios fisiológicos!) y con esa corriente de in-
ducción se estimulaba el nervio o el músculo. Si la bobina interna era deslizada
muy hacia afuera de la bobina externa, la corriente de estimulación disminuía.
El grado en que la bobina era deslizada era determinado por una escala espe-
cial en el mecanismo de deslizamiento. Y si en los artículos de Biología estaba
escrito “la magnitud del estímulo fue igual a 12 cm”, todos los investigadores
que lo leían lo entendían de la misma manera. Las bobinas de inducción eran
utilizadas en los laboratorios biológicos incluso hasta los años 50 del siglo pa-
sado y ya después fueron reemplazadas por generadores electrónicos de co-
rriente, los llamados electroestimuladores.
El invento de du Bois para la transmisión de los biopotenciales del tejido al
instrumento de registro fue de gran importancia: él entendió que los biopoten-
ciales no podían ser registrados con unos simples alambres de cobre, ya que en
el lugar del contacto del metal con los tejidos surgen potenciales de la misma
magnitud que los que se planeaba registrar. Los electrodos que diseñó du Bois
(los llaman “no polarizables”) no generaban esa diferencia de potenciales.
Las dificultades relacionadas al registro de los biopotenciales son muy pa-
recidas a las dificultades para la medición de la fuerza electromotriz de una
fuente de electricidad. No es posible deshacerse de ellas simplemente aumen-
tando la sensibilidad de los instrumentos de medición: es necesario también
que la resistencia interna del equipo sea mucho mayor a la resistencia interna
de la fuente de corriente. Du Bois encontró una manera muy elegante de solu-
cionar este requerimiento, inventando el llamado método compensatorio de
medición del potencial generado en el músculo (en el mismo principio se basa
el puente de Wheatstone—un equipo muy utilizado para las mediciones elec-
trotécnicas).
Todas esas innovaciones técnicas, que parecieran de poca importancia, en
realidad fueron determinantes para que los estudios de du Bois-Reymond, ini-
ciados cuando él era estudiante, se convirtieran posteriormente en alcances for-
midables de la ciencia de aquel entonces. Es más, estos experimentos tuvieron
una enorme influencia en el nivel de todos los trabajos de electrobiología que
se realizaban en ese tiempo, porque du Bois-Reymond promocionaba amplia-
mente sus equipos y hasta los regalaba a sus colegas. En fin, como dirían ahora
—promovía la introducción de sus estándares en las mediciones eléctricas vin-
culadas con la biología.
Es necesario notar que esa estandarización era completamente necesaria
para el cumplimiento de uno de los requerimientos absolutos de la ciencia mo-
derna hacia los experimentos—el requerimiento de reproducibilidad de estos.
Así que toda la atención de du Bois hacia los detalles “técnicos” y hacia la par-
te metodológica del trabajo debe ser considerada como un aporte muy valioso
al desarrollo de los principios generales de la metodología de las ciencias natu-
rales.
Los trabajos de du Bois-Reymond tenían dos vertientes: en primera, él es-
tudiaba las corrientes generadas por los tejidos vivos (siguiendo así la línea co-
menzada por Galvani y Matteucci), y en segunda—él estudiaba las leyes que
regían el efecto de la corriente eléctrica como agente estimulante de los nervios
y músculos (siguiendo la línea que comenzaron Fontana y Volta).
Los trabajos de du Bois y de su escuela, relacionados con la primer línea de
investigación, permitieron destacar de la gran cantidad de datos experimentales
dos fenómenos básicos de la electrobiología.
44

Los fenómenos básicos de la electrobiología: los biopotenciales

Si diseccionamos un músculo en dirección transversal a la dirección de sus fi-


bras, entre la parte cortada y la intacta se puede detectar una diferencia de po-
tenciales. La corriente que se registra de esta manera fue denominada por du
Bois-Reymond corriente de lesión.
Si estimulamos el nervio y el músculo (no necesariamente con un impulso
eléctrico), en el lugar de la estimulación surge una señal eléctrica, que se pro-
paga por el nervio o el músculo; esta señal fue llamada por Ludwig Hermann,
uno de los alumnos de du Bois-Reymond, potencial de acción.
Du Bois-Reymond, con todo el cuidado que lo caracterizaba, empleó el
complejo de equipos que había desarrollado para el análisis de estos fenóme-
nos. Así, él no solamente repitió los experimentos de Matteucci, que había ob-
servado que en el músculo dañado surge una corriente eléctrica, sino que tam-
bién examinó cómo cambia el panorama si los electrodos se colocan más cerca
del lugar de la lesión o más lejos; qué pasa si ambos electrodos son insertados
en el extremo dañado del músculo; cómo depende la corriente de lesión de la
dirección del corte y de su tamaño; y si este fenómeno se presenta de la misma
manera en diferentes músculos.
Él determinó que en todos los músculos se puede observar un comporta-
miento más o menos similar: por la parte externa del músculo dañado (más
bien, por la solución que rodea a ese músculo) fluye una corriente en dirección
hacia el lugar de la lesión, y con el transcurso del tiempo esta corriente va dis-
minuyendo. Este proceso es bastante lento: la corriente desaparece transcurri-
das varias horas después de la realización del corte.
Du Bois analizó otros tejidos en búsqueda de fenómenos similares y obtu-
vo resultados completamente nuevos. En 1843, él descubrió la corriente de le-
sión en el nervio. (Ésta era la primera ocasión cuando la electricidad fue regis-
trada de manera objetiva en los nervios; ¡los galvanómetros de Matteucci no
eran lo suficientemente sensibles para ello!) Habiendo realizado este descubri-
miento, du Bois examina los nervios de diferentes animales: langostas, lucios
(un pez de agua dulce), ranas, patos, conejos, gatos, perros, de tal manera que
él puede ser considerado como el fundador de la electrofisiología comparativa.
En todos los casos los valores de los potenciales de lesión resultaron más o me-
nos iguales (alrededor de 0.02 V) y du Bois llega a la conclusión de que los
nervios de los animales están organizados de la misma manera. Él por primera
vez registró algo parecido a un electroencefalograma, descubriendo la corriente
de lesión en la corteza de los hemisferios cerebrales.
Aparte, en el año 1848 du Bois descubrió la existencia de una diferencia de
potenciales entre las capas exterior e interior de la piel de la rana (alrededor de
0.1 V). Esta diferencia él la explicó mediante el funcionamiento de las glándu-
las de la piel, y cómo verás más adelante, no estaba lejos de la verdad.
Du Bois-Reymond expuso los resultados de su trabajo en tres grandes to-
mos de los “Estudios sobre la electricidad animal” (Untersuchungen über thie-
rische Elektricität, publicados en los años 1848, 1849 y 1869). Por supuesto,
en esos tomos estaban presentados no solamente los datos que obtuvo du Bois-
Reymond personalmente. Pero fue él precisamente la persona que sistematizó
todos los datos conocidos sobre la “electricidad animal”, que realizó una labor
titánica para detallarlos y completarlos. Él describió en qué condiciones, dón-
de, en qué objetos de estudio se podían registrar los biopotenciales, presentó
sus características, en otras palabras, propuso un panorama fenomenológico
completo.
Iván M. Séchenov (un fisiólogo ruso mundialmente reconocido) escribió
sobre du Bois-Reymond: “Pronunciando el nombre del famoso profesor berli-
nés du Bois-Reymond, hay que mencionar enseguida que él perteneció a la
casta de aquellas personas selectas, que abren caminos en la oscuridad no solo
para la generación siguiente, sino para muchas más”.
La acción excitadora de la corriente eléctrica: du Bois-Reymond
En su tiempo, Volta intentó introducir una “medida” en el estudio del efecto
excitador de la corriente eléctrica, pero no pudo lograrlo porque la patita de la
rana con la que trabajaba resultó ser mucho más sensible que el mejor de sus
electroscopios. Du Bois comienza a estudiar esta cuestión desde el principio: él
tiene nuevos equipos para la estimulación—los elementos galvánicos, o el esti-
mulador de deslizamiento, así como galvanómetros muy sensibles.
Antes que nada, du Bois intenta estimular el músculo aplicando una co-
rriente de estimulación continua de magnitud variable. Él consigue determinar
46

“Estudios sobre la electricidad animal” de du Bois-Reymond


la corriente mínima necesaria para provocar la contracción del músculo. A esta
corriente du Bois la nombra “corriente-umbral de excitación”—uno de los con-
ceptos más importantes de la electrobiología. Du Bois pudo determinar que el
umbral de excitación no es una constante: por ejemplo, diferentes músculos
tienen diferentes umbrales de excitación.
Du Bois intenta también determinar cuál es el efecto sobre el músculo de
una corriente cuya magnitud aumenta con el tiempo. Él encuentra que la velo-
cidad del incremento de la magnitud de la corriente es muy importante: si se
aplica una corriente continua, el músculo se excita a valores pequeños de la
magnitud de la corriente. En cambio, si la corriente va en aumento paulatina-
mente, comenzando desde cero, el músculo puede llegar a no excitarse a valo-
res de magnitud de la corriente mucho más altos. Es más, si el incremento de la
corriente es lo suficientemente lento, el músculo incluso puede no contraerse
(Fig.6). Daba la sensación de que durante este incremento lento de la corriente
el músculo “se acostumbraba” a su efecto (ese fenómeno posteriormente reci-
bió el nombre de acomodación).
Finalmente, du Bois-Reymond intenta determinar qué efecto tiene sobre el
músculo la duración de la aplicación de la corriente: para ello, él aplicaba la
corriente continua por cierto tiempo y luego la desconectaba. Basándose en es-
tos experimentos él llega a la conclusión de que la duración de la aplicación no
juega algún papel importante, y con ello comete un error. En este caso le falla-
ron sus equipos: du Bois no podía aplicar la corriente por centésimas y milési-
mas de segundo.
Entonces, ¿qué fue lo que logró establecer du Bois sobre, probablemente el
proceso más importante—el “panorama eléctrico” que se desarrolla en el
nervio o en el músculo en respuesta a la estimulación eléctrica? En realidad—
muy pocas cosas. El principal obstáculo en su caso fue el mismo—la
imposibilidad de trabajar con impulsos eléctricos de corta duración. Todos los
galvanómetros de du Bois tenían una gran inercia (tardaban en cambiar de un
valor a otro), por lo que no permitían registrar corrientes de pequeña duración.
Estos obstáculos fueron vencidos por los alumnos y seguidores de du Bois.
Ellos eran muchos y todos experimentaban la influencia de los trabajos de du
Bois y de su personalidad, tomaron de él no sólo su postura académica, sino
48

I, u.a.
I +—1
3 —2
1 2 + —3
—4
2
3 +
+ + +
1 +

10 20 30 t 1 2 3 t
A B
Fig. 6 Carácter del proceso de estimulación en función de la velocidad de
incremento de la magnitud de la corriente de estimulación y de su duración. A
—fenómeno de acomodación. La flecha con el punto indica el momento de la
excitación; mientras más lento incrementa la magnitud de la corriente, más tarda en
surgir la excitación y mayor es la magnitud de la corriente para que surja. Para una
corriente cuya magnitud aumenta muy lentamente (recta 3) la excitación no surge. B
—“Curva intensidad-tiempo”. El eje horizontal corresponde al tiempo de acción de
la corriente, el eje vertical—al valor umbral. Los diferentes símbolos corresponden a
los resultados obtenidos en diferentes organismos modelos: 1—músculo de rana, 2
—músculo de molusco, 3—estómago de rana, 4—alga Spirogyra. Una unidad en el
eje vertical corresponde a la magnitud mínima de la corriente que es capaz de excitar
cada uno de los objetos modelo. La escala de tiempo es diferente para los
organismos modelo: 1—1 ms, 2—50 ms, 3—2 s, 4—20 s. (Tomado del libro
Ginetsinsky A.G., Lebedinsky A.V. Fundamentos de fisiología del ser humano y los
animales. Moscú: Medgiz, 1947 [en ruso]).

también su estilo de trabajo: la atención hacia la metodología del experimento,


el análisis escrupuloso a la hora de aclarar los detalles. Así que du Bois-Rey-
mond no solamente fue “el padre de la Electrobiología”, sino también el “padre
académico” de la mayoría de los electrofisiólogos de ese entonces, la cabeza de
un escuela académica numerosa y fructífera.
Pero no hay que pensar que los seguidores copiaban ciegamente y con res-
peto a su maestro, intentando comprobar y, tal vez, desarrollar un poco más lo
realizado por él. Es más bien al revés: la vida académica de la escuela de du
Bois era bastante intensa. Du Bois en su tiempo no consideró necesario dete-
nerse ante la necesidad de proponer un programa que rechazara la posición bá-
sica de su tutor Johannes Müller—un partidario de la “fuerza vital”. Este mis-
mo espíritu de rebeldía du Bois-Reymond a su vez se los heredó a sus alumnos.
Y es precisamente dentro de la escuela de du Bois-Reymond donde surge
la segunda “gran discusión” que por su impacto y resultados puede ser compa-
rada con la discusión entre Galvani y Volta.
La acción excitadora de la corriente: los seguidores de du Bois
La conclusión de du Bois de que la duración de la aplicación de la corriente no
influye en la efectividad de su acción excitadora fue uno de sus pocos errores
fácticos. Este error fue corregido por uno de sus seguidores, el profesor Adolf
Fick, de la Universidad de Zúrich. Es interesante como este investigador supo
sobrepasar las dificultades relacionadas con la ausencia de los equipos necesa-
rios. Él consideró que, si es imposible obtener impulsos de corriente de estimu-
lación lo suficientemente cortos, porque el músculo reacciona de una manera
muy rápida, entonces había que buscar un músculo en el cual la excitación
ocurre de una manera más lenta. Y ya que Fick hacía estudios en el área de fi-
siología comparativa, él conocía dónde podía encontrar un músculo así. De
esta manera, el Prof. Fick pudo demostrar en el músculo de la almeja de río
(Anodonta), que incluso corrientes de gran magnitud pueden no excitar al mús-
culo, si actúan por un tiempo muy corto. Mientras menor sea la magnitud de la
corriente, por más tiempo debe de ser aplicada ésta para que músculo llegue a
excitarse.
Estas observaciones constituyeron una de las primeras leyes de la electro-
biología que pudo ser representada en forma matemática. La dependencia
del tiempo de su apli-
(la llamada “curva intensidad-tiempo”) puede ser expresada me-
diante la siguiente ecuación:

, (2.1)

son constantes.

Si exploramos la gráfica de esa función (Fig.6), podremos entender por qué


du Bois consideraba poco importante el tiempo de la aplicación de la corriente:
50

él trabajaba con corriente de larga duración, y el gráfico de la hipérbola (la fun-


ción que corresponde a la expresión matemática presentada) en estos valores
de la duración corre de manera prácticamente paralela al eje horizontal. Pode-
mos decir entonces, ¡que a du Bois le falló la hipérbola!
Unos datos interesantes sobre la acción excitadora de la corriente continua
fueron obtenidos por el seguidor de du Bois, Eduard Pfluger. ¡De manera com-
pletamente inesperada resultó que el nervio o el músculo se excitaban no sólo
durante la aplicación de la corriente,
I, u.a. sino también cuando ésta se apagaba!
Durante la aplicación de la corriente
3
la excitación surgía bajo el cátodo, y
cuando era apagada—bajo el ánodo.
2
En 1876, el científico francés
Etienne Marey reprodujo los experi-
1 mentos de Fontana, que ya habían
sido bien olvidados para ese enton-
ces. (Recordémoslos: estos eran los
tabs 1 2 3t experimentos en los que fue estable-
Fig. 7. Curva del período refractario. En el cido que el corazón pierde por un
eje horizontal — tiempo transcurrido después de rato la sensibilidad a la estimulación
la excitación previa. En el eje vertical —
eléctrica luego de una estimulación
corriente-umbral de excitación. tabs — período
refractario absoluto. previa; durante este tiempo el cora-
zón no es capaz de excitarse ni con la
corriente más intensa que podamos aplicarle.) Marey estableció una propiedad
similar para otros músculos. También él descubrió que, luego de cierto descan-
so, el umbral de excitación del corazón primero es muy alto y posteriormente
disminuye (Fig.7). Este tiempo, cuando el umbral sigue alto, Marey lo llamó
período refractario relativo, mismo que se distingue del período refractario
absoluto, cuando el corazón no responde a ningún estímulo que se le aplique.
Podríamos mencionar decenas y decenas de otros experimentos interesan-
tes y exponer una gran cantidad de factos y reglas descubiertos en esos años.
Pero si nosotros hiciéramos eso, un lector inteligente comenzaría a pasar las
páginas, o dejaría del leer el libro. En cierto modo tendría la razón. Poco a
poco se acercó el tiempo cuando la fortaleza de la escuela de du Bois-Rey-
mond se comenzó a convertir en su debilidad: numerosos experimentos que
más o menos se repetían decenas de veces con cierta modificación y concreti-
zación de detalles representaban ya más bien un obstáculo en el trabajo, y no
ayudaban tanto al avance de la ciencia.
El experimento es la base de las ciencias naturales, pero por sí solo, sin ser
colocado como un ladrillo en la construcción de la teoría, responde solamente a
la pregunta qué ocurre, pero no puede explicar cómo y, lo más importante, por
qué ocurre el fenómeno.
Y los pobres estudiantes durante cien años tuvieron que aprenderse para
sus exámenes esa gran cantidad de datos aislados, sin tener siquiera una noción
de cómo estaban relacionados entre sí y que hay detrás de ellos, en qué consis-
te el mecanismo de fenómenos como el período refractario, la acomodación, el
umbral de excitación, y, sobre todo—de dónde surge la electricidad en los or-
ganismos.
Por eso, tú también ten un poco de paciencia: antes de pasar a la “culmina-
ción”—el recuento de cómo por fin fue descubierto el misterio de la “electrici-
dad animal”, nosotros presentaremos la historia de dos trabajos, importantes no
solo por su significado, sino también porque a la escena entran los nuevos hé-
roes de nuestra novela sobre la electrobiología. A esos ambos trabajos los une
el hecho de que en ellos se consiguió, mediante métodos muy finos, superar el
obstáculo ya mencionado del estudio de los procesos de corta duración.
La velocidad de propagación de la excitación

En 1846, Johannes Müller escribía: “El tiempo necesario para que una señal
provocada por una sensación en la periferia corra hacia cerebro y regrese a los
músculos es infinitamente pequeña y no se puede medir.” Pero tan solo 4 años
después se consigue medir este tiempo.
Müller, como ya habíamos dicho, consideraba que la excitación era una
manifestación de la “fuerza vital”, y pues ¡quién sabe cómo es que se propaga!
Pero la señal eléctrica se transmitía por los cables también casi de manera
instantánea—esto ya era bien conocido. Por lo tanto, si consideramos que la
excitación que se propaga por los nervios tiene naturaleza eléctrica, entonces
no tiene caso intentar medir su velocidad—las distancias son muy pequeñas.
52

Pero a pesar de este pesimismo, apareció una persona que realizó el intento de
determinar la velocidad de propagación de la excitación. Esta persona era el
amigo de du Bois-Reymond, el magnífico científico Hermann von Helmholtz10.
En 1850, Helmholtz era profesor de fisiología en la Universidad de Kö-
nigsberg. En esa universidad él inventó algunas variantes de experimentos que
pudieran permitir determinar la velocidad de la excitación. (Un poco antes Carl
Ludwig, uno de los cuatro amigos, de los que ya hablamos, inventó el
quimógrafo—un instrumento que registraba de manera gráfica las señales que
pasaban por él.) Una de las variantes del ex-
perimento era la siguiente: Un tambor giratorio
se recubría de papel-carbón. Helmholtz tomaba
la preparación neuro-muscular y fijaba el múscu-
lo cerca del tambor (Fig.8). A su vez, al músculo
se fijaba una plumilla de tal manera que la con-
tracción del músculo provocase la aparición de
una huella en el papel que giraba. El momento
cuando el nervio era estimulado, era registrado
por un equipo especial, que hacía una marca en
el papel. De esta manera, en un mismo registro
se podía visualizar el intervalo de tiempo des-
pués del cual se contraía el músculo. Así se podía
establecer el tiempo desde la estimulación del
Hermann von Helmholtz nervio hasta el comienzo de la contracción del
(1821-1894) músculo.
Pero esto no tenía sentido práctico, porque durante el tiempo de registro la
excitación debía llegar al músculo, pasar la señal de excitación al músculo para
que éste se contrajera, después de lo cual en el músculo debía comenzar el
proceso de excitación. ¿Cómo separar todos estos intervalos de tiempo?

10
Helmholtz estableció y fundamentó matemáticamente la ley de conservación de la
energía, construyó el circuito oscilatorio electromagnético tomando una bobina y un
condensador, propuso la idea de la composición “atómica” de la electricidad, creó la
teoría del movimiento turbulento de los líquidos, elaboró la teoría de la resonancia de la
audición, sentó las bases de los estudios de la visión a color, inventó el oftalmoscopio (el
instrumento utilizado para examinar el fondo del ojo de un paciente), explicó el
surgimiento de las olas en el mar, entre otras cosas.
Helmholtz inventó la manera. Para eso él estimulaba el nervio por segunda vez,
pero en un lugar diferente, por ejemplo, a una distancia de 5 cm del primer
punto de estimulación. Ahora la contracción del músculo sucedía un poco más
tarde, contando a partir del momento de la estimulación. La diferencia entre
esos tiempos podía depender solamente del hecho que la excitación tuvo que
recorrer 5 centímetros más de distancia hasta el músculo. Si se conoce la
velocidad de rotación del tambor, se puede determinar el tiempo de demora, y,
ya que la distancia entre los dos puntos de estimulación es conocida, se podía
determinar la velocidad de propagación de la excitación por el nervio.
La velocidad de propagación de la excitación por el nervio medida de esta
manera resultó ser de tan solo 30 m/s, es decir ¡cien millones de veces menor
que la velocidad de la señal eléctrica y hasta decenas de veces menor que la

Q
c1
M c I b1

∆l b a1
t1
E2 a
E1 c2
II b2
a2
t2

Fig. 8. Esquema de los experimentos de Helmholtz para determinar la


velocidad de propagación de la excitación. Q — quimógrafo, a — registro del
tiempo, b — registro de la estimulación, c — registro de la contracción del músculo
(M), E1 y E2 — electrodos de estimulación. I y II — quimogramas de los experi-
mentos I y II, respectivamente. a1 y a2 — registros del tiempo, b1 y b2 — registros
del momento de estimulación, c1 y c2 — registros del momento de la contracción
del músculo, t1 y t2 — lapsos de tiempo transcurridos desde el momento de la exci-
tación del nervio hasta la contracción del músculo. El tiempo ∆t = t2 - t1 es el tiem-
po que le toma a la señal recorrer la distancia entre los electrodos E1 y E2. De acá
que la velocidad de la señal se calcula como v = ∆l /∆t.
54

velocidad del sonido! Este resultado, por una parte, fue un golpe mortal al con-
cepto de la “fuerza vital” que se propagaba de manera instantánea, pero, por
otra parte, puso a la electrobiología ante un nuevo dilema: ¿por qué se distin-
guen tanto las velocidades de propagación de la excitación en los nervios (o los
electrolitos) y en los metales? Nuevamente la “electricidad animal” no podía
ser explicada de manera fácil, utilizando solo los conceptos establecidos para la
electricidad “muerta”, la puramente física. Vinculado a este hecho nuevamente
cobraron vida las ideas de las propiedades únicas de la “electricidad animal”,
mientras que otros científicos comenzaban a dudar que la propagación de la
excitación por los nervios estuviese relacionada con la electricidad.
“La ola de excitación”
Esta duda fue disipada por los investigadores más jóvenes de la escuela de du
Bois-Reymond, que después se convirtieron en los héroes de la ciencia sobre la
“electricidad animal”—Julius Bernstein y Ludimar Hermann, quienes consi-
guieron realizar un gran avance en el estudio en una de las áreas desconocidas
de la electrobiología—el proceso de excitación en los nervios y los músculos.
Como podemos recordar, caracterizar las propiedades eléctricas de la exci-
tación es muy difícil—el mismo du Bois no pudo lograr esto, porque los proce-
sos de excitación son muy rápidos y breves a la vez. Por eso, incluso con los
más sensibles pero muy inertes galvanómetros, como los que tenían en sus ma-
nos los científicos de aquel entonces, sólo se podía determinar la presencia de
una respuesta eléctrica del músculo o del nervio, pero no se podía ver cómo
cambia ésta en el tiempo. A pesar de ello, Hermann y Bernstein resolvieron
con éxito este problema, que representaba un reto formidable en sus tiempos.
Nosotros no vamos a describir los múltiples y finos detalles con los que lo con-
siguieron, solo presentaremos los resultados de sus investigaciones. Ellos pu-
dieron determinar la forma de la ola de excitación y la velocidad de propaga-
ción de esa señal eléctrica a lo largo del músculo y del nervio.
Estos científicos pudieron sacar a la luz el panorama que se muestra en la
Fig.9: primero, la excitación se aleja de los electrodos de estimulación y se
acerca al primer electrodo registrador. Este electrodo se vuelve negativo res-
pecto al segundo, luego la ola de excitación se acerca al segundo electrodo y
ahora es éste el que adquiere un potencial negativo. Entonces, el área excitada
del nervio por corto tiempo se carga negativamente, al igual que el lugar del
corte del músculo, cuando se registra la corriente de lesión.
De esta manera fue descrito el impulso nervioso, o, como lo llamó Her-
mann—el potencial de acción propagable.11 Hermann y Bernstein en sus expe-
rimentos siguieron el movimiento del impulso nervioso e incluso, ¡lo que es
muy importante! —determinaron la velocidad de su propagación, es decir, la
velocidad de propagación de la excitación. Y esto es importante, porque la ve-
locidad resultó ser completamente igual ¡a la que veinte años antes había deter-
minado Helmholtz!

11
Ahora la forma del potencial de un nervio o un músculo puede ser vista directamente
en la pantalla de un computadora. Esto lo hacen incluso los estudiantes en sus prácticas y
es maravilloso que lo puedan hacer. Pero no menos maravilloso es que más de cien años
atrás los científicos supieron “verla” sin la ayuda de ninguna computadora u oscilosco-
pio. Acá debemos mencionar que tener una computadora o un osciloscopio no es sufi-
ciente. Los potenciales que surgen en los nervios y en los músculos son demasiado pe-
queños y por eso se requiere de un equipo adicional para registrarlos—un amplificador.
El amplificador y el osciloscopio fueron introducidos a la práctica de las investigaciones
biológicas en los años 20 del siglo pasado por los científicos estadounidenses Gerbert
Gasser y Joseph Erlanger.
56

t1
V

t1 t
t2
V

– +
t1 t2 t
t3
V

+ – +
t1 t2 t3 t
t4
V

+ –
t1 t2 t3 t4 t

t5
V

t1 t2 t3 t4 t5 t

Fig. 9 La “ola de excitación”—la señal eléctrica que registran los


macroelectrodos cuando la excitación se propaga. El área
sombreada corresponde al área excitada del nervio. La curva a la
derecha corresponde a los cambios en el potencial registrados por el
galvanómetro.
Hagamos un pequeño resumen. Para fines del siglo XIX, gracias principalmen-
te a la escuela de du Bois-Reymond fueron descubiertos y examinados los
principales fenómenos electrofisiológicos: el potencial (corriente) de reposo,
llamado al principio corriente de lesión, el potencial (corriente) de acción, que
se propaga por el nervio, y también fueron estudiadas algunas leyes fenomeno-
lógicas del efecto excitador de la corriente, por ejemplo, fue introducido el
concepto de período refractario.
Pero todavía faltaba mucho para poder explicar todos esos fenómenos. El
misterio principal residía en la cuestión—¿por qué y cómo surge el potencial
de reposo (de aquí en adelante lo vamos a llamar por su abreviatura—PR) y el
potencial de acción (PA)? ¿Cuál es la estación eléctrica o generador que los
origina?
A pesar del gran desarrollo de la teoría de la electricidad y de la electrotéc-
nica, no se lograba explicar la naturaleza del PR y del PA de alguna manera ra-
cional. La electroquímica todavía no contaba con un fundamento teórico sufi-
ciente, aunque el estudio de las corrientes eléctricas comenzó con la aparición
del elemento galvánico y los procesos eléctricos en la interfaz líquido-metal.
A veces hasta daba impresión que los fenómenos eléctricos en los organis-
mos vivos no pueden ser reducidos a los procesos que tienen lugar en los equi-
pos eléctricos. Por ejemplo, el impulso nervioso tenía naturaleza eléctrica, pero
se propagaba por el nervio con una velocidad asombrosamente lenta. La gran
cantidad de datos acumulados ya requería la creación de una teoría que los vin-
culara entre sí.
58

Capítulo 3

Sobre cómo surge la diferencia de potenciales en una célula

Los jóvenes… leen a Moleschott, a du Bois-Reymond y a Focht, pero ni a ellos


les creen, sino que quieren revisar sus ideas y hasta complementarlas con sus
propias creaciones.
N.A. Do brolyúbov (Sovremennik, 1858, No.3)
Quien lea nuestro recuento probablemente pueda imaginar que du Bois-Rey-
mond solamente hacía experimentos. Pero esto de ninguna manera corresponde
a la realidad. La posición académica de du Bois era, como ya habíamos dicho,
la siguiente: “No podemos atribuirles a las partículas de la materia en los orga-
nismos alguna fuerza nueva que no pertenezca a aquellas que también actúan
fuera de él”. Basándose en esa convicción, él ofreció la primera explicación
teórica del surgimiento del potencial de lesión: los
fenómenos eléctricos en los organismos surgen
porque a lo largo de los músculos y los nervios se
encuentran en cadenas unas moléculas “electro-
motoras” especiales. Cada una de estas moléculas
está compuesta por una especie de dos elementos
galvánicos con los polos positivos unidos, de ma-
nera que quedan expuestos solamente los polos
negativos. En cualquier parte que cortemos el
músculo los polos negativos quedan expuestos al
exterior, y con esto que se puede explicar el po-
El modelo de du Bois-Reymond
tencial de lesión.

Aquí podemos ver de manera clara como la teoría biológica se va forman-


do de manera similar a las teorías físicas reinantes en la misma época: la última
palabra en el área del magnetismo en ese entonces le pertenecía a la teoría de
Amper, la cual postulaba que las propiedades de los imanes permanentes pue-
den ser explicadas por el hecho de que cada molécula individual del material
magnético es un imán en miniatura.
Du Bois-Reymond diseñó entonces, como diríamos hoy, un experimento-mo-
delo para comprobar su hipótesis. Él soldó muchos elementos pequeños “co-
bre-zinc”, los conectó en pares con sus polos positivos, los fijó en una tablilla
y, sumergiendo este sistema en una solución salina, comenzó a realizar con
este “músculo artificial” experimentos similares a los que realizaba con el mús-
culo vivo. Como resultado, la distribución de las corrientes en ese modelo
efectivamente era muy parecida a la distribución de las corrientes en un múscu-
lo real.
Gracias a este diseño original, y, en parte, debido al prestigio de du Bois-
Reymond, la teoría de las moléculas electromotrices, a pesar de ser bastante
fantástica, fue ampliamente aceptada por casi un cuarto de siglo desde el mo-
mento que du Bois la propuso en el año 1846.
¡Ah, qué jóvenes!
Pero luego de cierto tiempo entran en la escena los alumnos de du Bois-Rey-
mond, y fueron precisamente ellos quienes minaron la certidumbre de lo esta-
blecido por su tutor. Todo comenzó por Ludimar Hermann, en quien du Bois-
Reymond educó el respeto por los detalles técnicos, el cuidado y la exactitud a
la hora de realizar los experimentos.
El problema consistía en que, según el modelo de du Bois-Reymond, en un
músculo intacto también tienen que circular corrientes, porque en el área de los
tendones (el tejido que fija el músculo con el hueso) deben estar expuestas “las
últimas moléculas de la fila”, cuya carga no se compensa de ninguna manera.
Du Bois-Reymond registraba estas corrientes sin la necesidad de realizar cortes
especiales. Pero cuando el cuidadoso Hermann aprendió a hacer las preparacio-
nes del músculo de tal manera que éste efectivamente no era dañado, resultó
ser que en estas condiciones no se registraba ningún tipo de corrientes.
Entonces, pensaba Hermann, en un músculo intacto y en el nervio no hay
nada de corrientes y potenciales. Según él, las corrientes surgen solamente
cuando el músculo es estimulado o es lesionado. Y la causa de esto, propuso,
son las reacciones químicas que comienzan a surgir en la frontera entre el pro-
toplasma y el medio exterior.
60

Las críticas de Hermann no pudieron desanimar a du Bois-Reymond, quien


respondió—ah, pues entonces al final del músculo hay otras moléculas, carga-
das positivamente, que apantallan los polos negativos de las últimas moléculas;
pero las corrientes siempre están presentes dentro de los músculos y la lesión
se requiere únicamente para poder registrarlas.
Esta fue la cuestión de la segunda “gran discusión” en la electrobiología:
¿la electricidad en el músculo surge solamente cuando éste es dañado (hipóte-
sis de la lesión, o alteración) o existe también antes de que el músculo sea le-
sionado (la hipótesis de preexistencia)?
Una sandía partida tiene semillas porque las podemos observar. Pero
¿tendrá semillas una sandía sin partir?
Los experimentos son uno de los argumentos de mayor peso en las discusiones
académicas. No obstante, a veces resulta que un grupo de científicos diseña un
experimento muy bonito, lo interpreta de una manera muy creíble y todos
piensan que esa interpretación ganó la disputa. Pero también sucede que el
experimento puede ser interpretado de una manera completamente diferente.
En este aspecto, la disputa entre las dos hipótesis del surgimiento de la
electricidad en los tejidos vivos es muy interesante: pensándolo bien, podemos
concluir que es imposible diseñar un experimento directo que permita dar solu-
ción a este dilema. Porque independientemente del experimento que realice-
mos, para determinar la diferencia de potenciales entre el interior del músculo
y su parte externa, siempre habrá que introducir un electrodo en el músculo, lo
que les permitirá a los partidarios de la hipótesis de la alteración afirmar que el
músculo ha sido lesionado. Por esa misma razón, los partidarios de la hipótesis
de la alteración no pueden comprobar que en un músculo intacto no exista una
diferencia de potenciales entre su interior y el exterior.
Al parecer esta consideración no fue tomada en cuenta por las partes, y
para probar una u otra hipótesis se realizaban múltiples experimentos nuevos
que, aunque no podían hacer cambiar de opinión a los oponentes, ayudaron en
mucho al desarrollo de la electrofisiología.
Por ejemplo, Hermann realizó el siguiente experimento. Él diseccionó (cor-
tó) rápidamente un músculo y estableció que el potencial de lesión aparece no
al instante de la realización del corte, sino al cabo de 0.02 s. Este hecho él lo
explicaba argumentando que las reacciones químicas necesitan cierto tiempo
para iniciar. Pero incluso si este experimento estuviera bien realizado, de nin-
guna manera refutaba la hipótesis de la preexistencia del potencial en el mús-
culo: du Bois-Reymond consideraba que durante la excitación las baterías mo-
leculares se apagan y lo mismo podía pasar durante la lesión del músculo.
En 1904, Bernstein (que para ese entonces ya era un oponente académico
de Hermann) y su colaborador Armin von Tschermak repitieron el experimen-
to de Hermann y demostraron que la diferencia de potenciales podía ser regis-
trada ya a los 0.3 ms después de la lesión del músculo. Pero esta observación
no tuvo ningún efecto. Hermman simplemente decidió que las reacciones en
respuesta a la lesión se desarrollan más rápido de lo que él había pensado pre-
viamente.
Entonces, ¿se puede determinar quién tenía la razón en esta disputa? Por
supuesto que se puede. Porque, por ejemplo, nosotros estamos convencidos de
que las semillas dentro de la sandía están ahí incluso antes de que sea partida, y
no aparecen ahí en el momento cuando se abre o como resultado de que la
abran.
Pero ¿por qué estamos tan seguros de ello? ¿Por qué estamos tan convenci-
dos de la existencia de las semillas dentro de la sandía, aunque no podamos
comprobar este supuesto sin partir la sandía? (Claro, podríamos proponer que
le hagamos un ultrasonido o una tomografía a la sandía, para no tener que par-
tirla). Esta certeza nos la da la comprensión del mecanismo mediante el cual
surgen las semillas. Lo mismo ocurre con los biopotenciales: para resolver la
discusión entre du Bois-Reymond y Hermann había que explicar el mecanismo
del surgimiento de ese potencial o antes de la lesión del músculo, o como re-
sultado de la lesión. En este caso había que construir la explicación de tal ma-
nera que ésta no estuviera en controversia con otros datos científicos y que en-
cajara bien en el panorama general. Es decir, la cuestión central de la discusión
no era cuándo surge el potencial, sino más bien cómo es que surge éste.
Julius Bernstein, el alumno de du Bois-Reymond fue el creador de la teoría
de los biopotenciales.
62

Pero las diferentes ideas, datos y descubrimientos en las que se basa esa teoría
se fueron acumulando en la ciencia durante mucho tiempo.
Una desviación literaria sobre las novelas policiacas. Una investigación
científica muchas veces se parece a una novela de género policiaco. O más
bien, no parece una obra literaria, sino más bien un proceso real de investiga-
ción forénsica. Para establecer la verdad—cómo sucedieron los hechos (e in-
cluso a veces—qué fue exactamente lo que sucedió), quién es el responsable, y
sobre todo—para recopilar las pruebas necesarias, es necesario realizar una la-
bor enorme. En este trabajo todo es importante: la interrogación de los testigos,
la aclaración de los detalles, incluyendo aquellos que puedan aparecer peque-
ños e insignificantes a primera vista. En este caso, una enorme cantidad de
datos no necesariamente estarán vinculados al suceso, pero de todas maneras
necesitan ser recopilados—porque de antemano no se sabe si servirán o no.
Probablemente lo más difícil es vislumbrar detrás de todos esos datos la estruc-
tura que sacará la verdad a la luz y que permitirá construir la cadena de pruebas
para su argumentación.
Pero cuando el proceso de investigación es relatado por un autor, él ya co-
noce el desenlace, él sabe qué detalles son importantes y cuáles no, aunque
diferentes autores utilizan esos detalles de diferente manera. Unos autores pre-
sentan en el texto todos los detalles necesarios para que el lector pueda llegar
por sí mismo a la conclusión correcta. Aunque el lector, por lo general, no per-
cibe estos detalles o no les da importancia. Pero solo después, cuando Sherlock
Holmes le cuenta al Dr. Watson cómo fue que encontró la solución, el lector
puede entender por qué eran importantes ciertos detalles. Y el lector a veces
queda frustrado de no haber podido resolver el misterio.

Pero en algunas raras ocasiones la novela comienza con el recuento de la


solución del misterio.
La historia de la ciencia muchas veces es escrita precisamente de esta ma-
nera, mostrando la solución desde el principio. Nosotros, en cambio, tratamos
de incorporar a nuestro relato por lo menos aquellos datos o ideas que fueron
importantes durante el proceso de averiguación científica, sin tener la posibili-
dad (antes que nada—por la falta de espacio) de examinar las múltiples hipóte-
sis falsas que surgieron en el transcurso de la averiguación y la investigación.
Ahora llegó el tiempo de construir la cadena de datos (que parecían a veces
desconectados del tema), y la cual nos mostrará quién es el delincuente (la
causa de la “electricidad animal”) y qué armas utilizó.
De la ósmosis a la electricidad

Al principio de nuestro libro nosotros mencionamos de paso que el abate No-


llet es famoso por el descubrimiento de la ósmosis. En ese tiempo a nadie le
podía surgir la idea que precisamente el estudio de ese fenómeno sería el pri-
mer paso en la resolución del misterio de la “electricidad animal”. Esto sucedió
de la siguiente manera.
En el año 1826, el médico y fisiólogo parisino Henri Dutrochet se interesó
por una de las propiedades maravillosas de las plantas—la presión de la raíz (o
presión radicular), que hace fluir el líquido de un tallo
cortado. Si se entuba la parte cortada del tallo, el líqui-
do saliente puede subir dentro del tubo a una altura
bastante notable.
Incluso para nosotros puede resultar asombroso
cómo pueden los hongos con sus delicados sombreros
atravesar el pavimento, o cómo puede el arbejón, hin-
chado por la humedad, partir a la mitad un barco. Pero
en los tiempos de los que hablamos este hecho parecía
un milagro: ¿de dónde sacan las débiles raíces la fuer-
za necesaria para romper piedras?
Henri Dutrochet (1776-1847)
Dutrochet pensó: ¿y no se podrán explicar todos
estos milagros mediante la ósmosis—el fenómeno descubierto en 1748 por el
abate Nollet (quién, por cierto, también descubrió la difusión de los líquidos)?
Recordemos que la ósmosis consiste en la difusión espontánea del solvente
en una solución separada por una membrana, a través de la cual permea el sol-
vente (por ejemplo, agua), pero no permea la sustancia disuelta (el soluto; por
ejemplo, las moléculas de azúcar). Este tipo de membranas se conocen como
membranas semipermeables. Esta propiedad de semipermeabilidad es caracte-
rística de muchas membranas de origen biológico: la piel de rana, la membrana
de vejiga (Nollet utilizó en su experimento una vejiga de cerdo), y otras. Si se
64

toma un tubo de vidrio y se tapa uno de sus extremos con una membrana de
este tipo, se llena con una solución de azúcar y luego se sumerge la punta tapa-
da en el agua (Fig.10), el agua comenzará a pasar (permear) del recipiente ex-
terno al tubo de vidrio, y el nivel de la solución dentro de éste subirá por enci-
ma del nivel del agua en el recipiente externo, creando la llamada presión os-
mótica.
Henri Dutrochet propuso que es precisamente
D
esta presión la causa de las propiedades maravillo- h
sas de las plantas. Pero lo interesante en sí es que
Dutrochet veía el fenómeno de la ósmosis como
un ejemplo de la acción de la “fuerza vital”. Él in- B
tentó reemplazar la vejiga de un toro u otras mem- A C
branas de origen biológico por un recipiente de ba-
rro poroso, pensando que este experimento falla-
ría, porque en el barro no hay “fuerza vital”. ¡Pero Fig.10 Partes de un osmómetro
sencillo: A—recipiente con
cuál fue su sorpresa al descubrir que el recipiente
solvente, B—tubo con solución,
de barro funcionaba de la misma manera! Es de ser C—membrana semipermeable, D
muy respetado el valor de Dutrochet, quien supo —escala para la medición de la
cambiar sus ideas por completo. Desde ese enton- diferencia h de los niveles.
ces, él, según sus propias palabras “… relacionó
para siempre la física con la fisiología”. Dutrochet realizó una labor muy gran-
de para darle explicación al proceso de la absorción del agua del suelo por las
plantas, de la elevación del agua por los troncos y tallos, del movimiento de las
hojas de la dormilona o vergonzosa (Mimosa pudica) y otros. Dutrochet inten-
taba explicar todos estos fenómenos mediante la ósmosis (término que él acu-
ñó, por cierto).
Pero lo más importante es que Dutrochet demostró que la ósmosis es un fe-
nómeno meramente físico. Desde este momento los partidarios de las reaccio-
nes fisicoquímicas en la biología comenzaron a realizar numerosos estudios so-
bre el papel de la ósmosis en los organismos, en particular en el organismo de
los animales. Mediante la ósmosis comenzaron a explicar la absorción de los
nutrientes en el intestino y Carl Ludwig intentaba utilizar este concepto para
explicar el funcionamiento del riñón. Incluso, hasta hoy en día la presión radi-
cular se explica a través de este fenómeno prácticamente de la misma manera
como fue explicada en los años 60 del siglo XIX por el fisiólogo de plantas
alemán Julius von Sachs.
El papel principal en la investigación de la ósmosis en esta época pertene-
ció a los botánicos. Fueron precisamente los botánicos los que comenzaron a
estudiar la materia viva, como decimos hoy—a nivel celular. Y esto es natural,
porque las células fueron descubiertas por primera vez en las plantas: en estos
organismos las células muchas veces son más grandes que en los animales, y,
sobre todo, se encuentran bien separadas unas de las otras por una pared que es
fácil observar utilizando un microscopio.
La cuestión principal era qué tipo de sustancias y qué tan rápido pueden
entrar a la célula. Imaginemos que la célula vegetal es colocada en una solu-
ción concentrada de alguna sustancia. Si esta sustancia no puede entrar a la cé-
lula, entonces por la ósmosis el agua comenzará a salir de la célula y ésta se
contraerá, disminuirá su volumen. Pero el estudio de la ósmosis demostró que
la pared visible en el microscopio no se contrae, sino que se comporta como un
armazón rígido. Por otra parte, el volumen interno sí se comporta según las le-
yes de la ósmosis. Basándose en esta observación el botánico alemán Wilhelm
Pfeffer llegó a una conclusión muy importante para el desarrollo de la biología.
Él propuso que, en la superficie de la célula de la planta, por debajo del “arma-
zón”, existe otra membrana, invisible a través de los microscopios ópticos—la
membrana celular, que es la que juega el papel de membrana semipermeable.
Pfeffer realizó también el siguiente paso básico en el estudio de la ósmosis
—el determinó la presión osmótica. Para ello Pfeffer utilizó membranas semi-
permeables artificiales. Con esas delgadas membranas él recubría un recipiente
de barro poroso, el cual impedía que las membranas se rompiesen por el exceso
de presión osmótica. Conectando a ese recipiente un manómetro de mercurio,
Pfeffer obtuvo un instrumento para mediciones cuantitativas de la presión os-
mótica—el osmómetro. Midiendo esa presión, él estableció que para cada solu-
ción la presión era directamente proporcional a la concentración del soluto (la
sustancia disuelta) que no permeaba a través de la membrana. Pero el botánico
Pfeffer no supo adivinar la razón por la cual diferentes soluciones a una misma
concentración (por peso) arrojaban valores diferentes de la presión osmótica.
66

Nosotros ya describimos algunos casos de la estrecha relación existente entre


distintas ciencias. En la mayoría de los casos mencionados la física ayudaba a
la biología, preparando su desarrollo. Pero también había veces cuando la bio-
logía le pagaba a la física con la misma moneda. Sin los trabajos de Galvani no
hubiera sido descubierta la corriente eléctrica de manera tan rápida, sin el des-
cubrimiento del botánico Brown se desarrollaría de una manera más lenta la
teoría cinética molecular, y sin los trabajos del botánico Pfeffer… Pero ésta es
precisamente la historia que relataremos a continuación.
En los años 70 del siglo XIX el joven botánico holandés Hugo de Vries12
estuvo realizando estudios sobre el efecto de la ósmosis sobre el cambio del
volumen de las células vegetales en soluciones de diversa concentración.
En 1894, de Vries en una conversación le presenta los trabajos de Pfeffer
sobre la presión osmótica al joven químico Jacobus van’t Hoff. Los datos ex-
perimentales de Pfeffer tuvieron sobre van’t Hoff el mismo efecto que los da-
tos de Tycho Brahe para Johannes Kepler13. Examinando minuciosamente es-
tos datos, van’t Hoff se dio cuenta que la presión osmótica en diferentes solu-
ciones es igual si se mide la concentración de las soluciones empleadas no en
gramos por litro, sino en moles, es decir, lo importante no era la masa de la
sustancia, sino el número de moléculas disueltas.14 Era muy natural considerar
que las moléculas de la sustancia disuelta se comportan como moléculas de un
gas ideal. De esta manera, para la expresión de la presión osmótica se puede
utilizar la ecuación de Mendeleev-Clayperon:

12
Posteriormente, Hugo de Vries será uno de los creadores de la genética contemporá-
nea, redescubriendo en el año 1900 las leyes de Mendel; fue también la persona que acu-
ñó el término “mutación”. Fungió como rector de la Universidad de Ámsterdam (Univer-
siteit van Amsterdam).
13
Johannes Kepler, basándose en esos resultados, formuló las tres leyes que rigen el mo-
vimiento de los planetas, y que a su vez sirvieron de fundamento para formular la Ley de
Gravitación Universal de Isaac Newton.
14
Recordemos que un mol es la cantidad de sustancia que contiene 6,022 x 1023 partícu-
las elementales de la misma. Si tenemos un litro de una solución 1 molar de azúcar eso
significa que en ese litro hay el número mencionado de moléculas de azúcar.
—la
constante universal de los gases ideales, —el volumen.

Quince años más tarde van’t Hoff recibió el premio Nobel por la teoría de
las soluciones. Podemos, entonces, ver qué aportación tan importante hizo a la
ciencia de Vries, tan solo con haber conversado con van’t Hoff.
La teoría de van’t Hoff se cumplía de maravilla para las soluciones de mu-
chas sustancias, por ejemplo, para la sacarosa, o para la solución acuosa de
CO2. Pero para algunas sustancias la presión osmótica resultaba mucha mayor
a la calculada, y no en unos cuantos 10-15%, sino ¡al doble! ¡El error de cálcu-
lo era igual al 100%! Difícilmente un error así podía ser explicado por la ine-
xactitud de las mediciones.

Wilhelm Pfeffer Hugo de Vries Jacobus van’t Hoff


(1845-1920) (1848-1935) (1852-1911)

La reflexión sobre el origen de esta discrepancia condujo a la realización de un


descubrimiento importantísimo. Un aliado de van’t Hoff, el científico sueco
Svante Arrhenius dedujo que si, por ejemplo, para la sal común la presión es el
doble de la calculada, entonces en la solución debe haber el doble de partículas
que en la molécula del cloruro de sodio—NaCl—el componente de la sal co-
mún o de mesa. Es decir, en el agua la molécula de NaCl se debe separar15 en
dos partículas: Na (sodio) y Cl (cloro). De la comparación de este hecho con
otros (por ejemplo, con los datos de la conductividad de las soluciones), Arrhe-

15
El término correcto para este fenómeno es se disocia.
68

nius llega a la conclusión sobre la disociación electrolítica—la idea de que las


partículas en las que se dividen muchas sustancias son precisamente los iones
—los portadores de cargas eléctricas, con la ayuda de las cuales Faraday expli-
caba las leyes de la electrólisis.
Antes de Arrhenius se consideraba que los iones surgen bajo
el efecto de la corriente eléctrica, pero su participación en el
fenómeno de la ósmosis demostró que esto no es así: ¡los io-
nes ya se encuentran presentes en las soluciones! Átomos y
moléculas cargadas eléctricamente existen y se mueven en la
solución sin la acción de la corriente eléctrica.
De esta manera, el estudio de la ósmosis llevó al descubri-
miento de los dos “culpables” del surgimiento de la “electrici-
Svante Arrhenius dad animal”—la membrana celular y los iones, pero todavía
(1859-1927) nadie se daba cuenta del papel de ambos.
¡Ya casi! ¡Ya casi!
En 1887 salieron publicados los artículos de van’t Hoff y Arrhenius en el pri-
mer número de la “Revista de fisicoquímica” (Zeitschrift für physikalische
Chemie), fundada por Wilhelm Ostwald. Todos alrededor hablaban de la nueva
metodología de la química, y sobre las pruebas de la existencia de los iones.
En ese año, en Berlín se graduó de la universidad Walther Nernst, quien te-
nía 23 años. Él será un famoso físico y químico, descubrirá la tercera ley de la
termodinámica, recibirá el premio Nobel de química y sustituirá a Max Planck
en el puesto de director del Instituto de la Física en Berlín. Pero mientras tanto
él es un simple asistente de Ostwald, aunque ya no es un novato en la ciencia.
Trabajando como experimentador, él ya había conseguido descubrir un nuevo
fenómeno: la aparición de un campo eléctrico en los cuerpos a los que se les ha
aplicado un gradiente de temperatura y que han sido colocados en un campo
magnético. Ahora él se dedica a su tesis y comienza su trabajo teórico sobre los
elementos galvánicos. Claro, antes de él se dedicaron a esta teoría personalida-
des muy imponentes: William Thomson, Josiah Gibbs y Hermann von Hel-
mholtz. ¡Pero en ese entonces ellos no sabían nada acerca de los iones! Nernst
decidió examinar el vínculo entre la fuerza electromotriz de los elementos gal-
vánicos y la difusión de los iones. En 1889 su tesis estaba lista y publicada. En
esta obra, particularmente, se desarrollaba la idea de Volta de que los fenóme-
nos eléctricos pueden surgir en la frontera del contacto entre dos líquidos dife-
rentes.
Qué es el potencial de Nernst

Imaginemos que en alguna parte de un recipiente hay un electrolito (por ejem-


plo, una solución de sal de mesa), y en otra parte—disolvente puro (agua, en
nuestro ejemplo). ¿Cómo ocurre la difusión de la sal?
Los iones cargados positiva- y negativamente tienen una
masa diferente, reaccionan de diferente manera con el
agua, entonces, obviamente, se mueven en el líquido con
velocidades diferentes.16 Imaginemos que los iones de
cloro (aniones de cloruro) se mueven más rápido y du-
rante la difusión “corren” por delante de los cationes.
Surge entonces una “separación” de iones negativos y
positivos. Esta separación provoca la aparición en la so-
lución de un campo eléctrico (con el signo de “menos”
en la frontera delantera de la difusión), que frenará a los
aniones que van muy por delante y acelerará a los catio- Walther Nernst
nes retrasados, igualando las velocidades de su difusión. (1864-1941)

Por supuesto, Nernst en su tesis no se limitó a la descripción cualitativa,


sino que, como un verdadero físico, obtuvo la ecuación para el potencial de
difusión , que surge en la frontera de dos soluciones con las
concentraciones de electrolitos y :

(3.1)

—la velocidad del más lento,


—la constante de Faraday,
—la temperatura.

16
La idea de las diferentes velocidades de los iones en la solución fue formulada en 1856
por Johann Hittorf, quien supo determinar experimentalmente la relación entre las velo-
cidades de movimiento de diferentes electrolitos durante la electrólisis.
70

Esta ecuación permitía comprobar cuantitativamente y de manera directa la hi-


pótesis de Hermann, de acuerdo con la cual los biopotenciales surgen en la
frontera de dos partes del protoplasma—una intacta y la otra lesionada, y des-
pués de siete años esta revisión la emprende el científico ruso Vasíly Chágove-
ts. Éste será el primer trabajo empleando los métodos cuantitivos exactos para
el estudio de los biopotenciales.
Cuando la tesis de Nernst fue publicada, Chágovets todavía estudiaba en
un colegio en Kiev. En 1892, Chágovets ingresó a la Academia Militar de
Medicina de San Petersburgo. Ahí el laboratorio de fisiología era dirigido por
Ivan R. Tarkhánov—uno de los alumnos de Ivan M. Séchenov.17 Tarkhánov le
propuso al estudiante de sexto semestre Chágovets el tema relacionado con el
estudio de los fenómenos eléctricos en el nervio de la rana, de manera similar a
como 50 años antes J. Muller le había propuesto un tema parecido a du Bois-
Reymond. (Por cierto, al igual que Helmholtz, Chágovets tuvo que dejar su
trabajo académico por varios años para pagar por sus estudios).
Vasíly Chágovets prefería la hipótesis de Hermann a las algo fantásticas
moléculas electromotoras de du Bois. Pero también la hipótesis de Hermann
era muy abstracta. Ésta se refería a unas reacciones en el protoplasma, molécu-
las, fronteras… Por ello, Chágovets desarrolla una variante de la teoría de le-
sión, por primera vez explicando el surgimiento de los biopotenciales mediante
el concepto de la difusión de los iones.
Pero ¿qué sustancia es la que origina el potencial de lesión?
Como puedes observar en la ecuación (3.1), es deseable que los aniones y
los cationes de la sustancia tengan una movilidad diferente, y que su
concentración en el lugar del corte sea muy diferente a su concentración en la
parte intacta. Chágovets decidió que esta sustancia era el ácido carbónico,
H2CO3. Él pensaba lo siguiente: el corte, como cualquier otra excitación, activa
el metabolismo, y como consecuencia—la liberación de CO2. En base a los
resultados que previamente había obtenido Hermann, Chágovets asumió que la

17
Séchenov fue uno de los fisiólogos rusos más famosos, creador de la teoría objetiva de
la conducta, sentador de las bases de la fisiología del trabajo, la fisiología comparativa,
así como de la fisiología evolutiva. Él descubrió los procesos bioeléctricos rítmicos en el
sistema nervioso central y la importancia de los procesos metabólicos para la excitación.
concentración del ácido carbónico en el lugar del corte aumenta 6.5 veces. La
diferencia entre las velocidades de los iones H+ y CO32− daba para el factor de
la ecuación (3.1) un valor de 0.8. Chágovets calculó el potencial de lesión del
músculo a una temperatura ambiente (≈ 290 K). Su resultado fue de alrededor
de 35 mV. Pero el potencial de lesión real era de 50-60 mV. La diferencia no
era demasiado grande, pero si era notable.

Primer número de la “Revista de Fisicoquímica”, publicado en 1887

El trabajo de Chágovets titulado “Sobre la aplicación de la teoría de disocia-


ción de Arrhenius a los fenómenos eléctricos en los tejidos vivos” salió publi-
72

cado en 1896, y al siguiente año en su forma resumida fue publicado en la


“Revista de fisicoquímica” de Ostwald. En su trabajo, Chágovets intentaba ex-
plicar la divergencia entre los resultados de los cálculos y los experimentos con
el hecho de que la concentración de ácido carbónico en el corte puede ser ma-
yor a la concentración durante la fatiga del músculo. Pero esta propuesta fue
rechazada mediante experimentos directos: por ejemplo, mediante la neutrali-
zación del ácido carbónico con una base, tratamiento que no provocaba un
cambio en el potencial de lesión.
Chágovets centró su atención en el ácido carbónico no solo porque conocía
que durante el funcionamiento del músculo surge una diferencia en su concen-
tración, sino también porque al disociarse esta molécula aparecía el ion de hi-
drógeno—el ion que tiene la mayor movilidad entre todos los iones conocidos.
Las velocidades de difusión de los iones más comunes son más o menos igua-
les, así que el primer factor en la ecuación (3.1) en vez de 0.8 sería del orden
de 0.01-0.2. Como resultado se obtendría un valor de la diferencia de potencia-
les aún más alejado de la realidad. Y Chágovets no consideraba necesario in-
ventar iones míticos. Al parecer, la idea de la difusión de los iones como base
para el surgimiento de los biopotenciales había topado con pared. No obstante,
a pesar de que esta propuesta específica de la teoría de los biopotenciales resul-
tó ser errónea, la idea principal de Chágovets era correcta. Chágovets ya se en-
contraba muy cerca de la respuesta.
El problema está resuelto
Desde 1890, Wilhelm Ostwald, quien continuaba estudiando las membranas
semipermeables artificiales, había propuesto que la semipermeabilidad pudiera
no solo provocar la ósmosis, sino también fenómenos eléctricos. La ósmosis
surge cuando la membrana permite el paso de pequeñas moléculas de agua,
pero no permite el paso de moléculas grandes como el azúcar. ¡Pero también
los iones pueden tener diferentes tamaños! Entonces, la membrana puede per-
mitir el paso a los iones que tengan una misma carga, por ejemplo, los carga-
dos positivamente. Ostwald demostró de manera directa que en membranas ar-
tificiales pueden surgir diferencias de potenciales mayores a los que surgen du-
rante la difusión libre de los iones en las fronteras de las soluciones con dife-
rentes concentraciones. Y en este caso no era necesaria la presencia del catión
rápido de hidrógeno: sirve cualquier ion que pueda permear a través de la
membrana y que esté presente en diferentes concentraciones a ambos lados de
esa membrana.
Efectivamente, si nos fijamos en la ecuación (3.1) y suponemos que la
, podemos ver que
los valores del potencial de difusión deben ser bastante altos:

, (3.2)

mismos que pueden pasar a través de la membrana).


De esta manera, Ostwald combinó la ecuación
de Nernst y los conocimientos sobre las membranas
semipermeables. Él supuso que las propiedades de
una membrana de este tipo podrían permitir explicar
los potenciales de los músculos y los nervios y la
acción asombrosa de los órganos eléctricos de los
peces.
Extrañamente, los biólogos pasaron por alto esta
idea de Ostwald, aunque los integrantes de la escue-
la de fisiólogos más avanzada de aquel entonces—la
escuela de du Bois-Reymond—estaban ocupados
precisamente en resolver el problema al cual Ost-
Wilhelm Ostwald wald propuso su solución. Pero puede ser que pre-
(1853-1932) cisamente la discusión impidió que los biólogos
centraran su atención en esta idea: Hermann, como el autor de la hipótesis de la
lesión, no pensaba en la membrana, y Bernstein, que encabezó a los partidarios
de la hipótesis de la preexistencia, no pensaba en los iones. Aparte, Hermann y
Bernstein ya no eran jóvenes: los dos ya tenían más de 50 años, una edad en la
cual ya es más difícil aceptar nuevas ideas.

Pero Bernstein sí supo superar su edad y pudo apreciar la idea de Ostwald.


Puede ser que un papel importante lo haya jugado el hecho de que en su base la
74

hipótesis de la membrana llevaba marcado el espíritu de la escuela de du Bois:


no existe ninguna “fuerza vital”, no existen ningunas propiedades complejas y
desconocidas de la célula o el protoplasma; lo único que se requiere son una
membrana y los electrolitos. El cambio decisivo que tuvo que realizar Berns-
tein consistió en explicar las propiedades eléctricas de los músculos y los ner-
vios no mediante la estructura de estos órganos completos, sino a través de las
propiedades de todos los tejidos y los órganos. Al fin se había descubierto el
“culpable” del surgimiento de la “electricidad animal”—la membrana celular,
y “el arma”—el transporte iónico. De esta manera, en la hipótesis de Bernstein
se combinan la electroquímica y la teoría celular.
Julius Bernstein se considera el fundador de la teoría de membrana de los
biopotenciales. Su primer artículo en esta área sale publicado en el año 1902.
Comenzaba la nueva era de la electrobiología.
La teoría de la membrana
Bueno, veamos, para empezar—de manera cualitativa, cómo es que surgen los
biopotenciales según esta teoría.
¿Qué era lo importante para Bernstein en la estructura de los órganos y las
células? El músculo o el nervio están constituidos de células rodeadas por el
medio extracelular. Cada célula es como una bolsita o una burbuja recubierta
por una envoltura que mantiene dentro de sí un líquido con una composición
diferente a la del líquido extracelular, y que contiene los distintos organelos de
la célula, por ejemplo—el núcleo.
La envoltura de la célula es precisamente la membrana. Ésta aísla las
células no unas de otras (como las paredes celulares en los tejidos vegetales),
sino el contenido de la célula del medio externo.
Supongamos ahora que dentro de las células hay muchos iones libres de al-
gún elemento, por ejemplo, de potasio, y que en el medio externo no hay de
esos iones, o su cantidad es muy pequeña. Supongamos también que la mem-
brana celular permite el paso solamente a los iones de potasio (K+) y no permi-
te el paso de ningún otro ion. Entonces, los iones de K+ comenzarán a salir de
la célula, dentro de la cual se encuentran en abundancia, hacia el exterior (o sea
comienzan a difundirse o moverse en la dirección del gradiente de concentra-
ción). Junto con los iones de potasio comienza a salir también la carga positiva.
Al interior de la célula van a pasar muy pocos iones, porque afuera casi no hay
potasio. Entonces, en la membrana celular va a surgir una diferencia de
potenciales: fuera de la célula la carga va a ser positiva, y en su interior la
carga será negativa (Fig.11). Esta diferencia de potenciales va a frenar paula-
tinamente la salida de más iones de potasio y promoverá el flujo de esos iones
hacia el interior de la célula (la carga negativa en el interior de la célula los va
a atraer, mientras que la carga positiva en el exterior los va a “rechazar”, impi-
diéndoles la salida). Cuando los flujos de los iones hacia el interior y hacia el
exterior se igualen, se establecerá un equilibrio dinámico. En estas condiciones
a través de la membrana se mantendrá una diferencia de potenciales constante.
Es este precisamente el potencial de reposo (PR). Su valor se describe median-
te la ecuación de Nernst (3.2).
76

Un poco de matemática. Para obtener esta ecuación, utilicemos el hecho

Ya que el cambio en la energía interna del gas depende solamente de su


estado inicial y final, y no depende de la manera en la que haya sucedido el
cambio, intentemos determinar el cambio de la energía interna en el caso
más sencillo—cuando el gas realiza un trabajo mecánico al expandirse.

Imaginemos que tenemos un cilindro cerrado con un pistón relleno de gas


y que éste, expandiéndose, mueve el pistón realizando un trabajo igual al
producto de la fuerza multiplicada por la distancia que recorre el pistón:
—distancia recorrida por el pistón).
La fuerza es igual al producto de la presión del gas multiplicada por el área
—el área del pistón). Pero el
)y ), recorrida por el pistón, es igual al
cambio en el volumen del gas. Entonces, el cambio en la energía del gas du-
es
durante la expansión
(el aumento del volumen) no cambia (Fig.12), entonces el trabajo efectuado
, es decir, al área del
rectángulo I II III IV se
deriva que al aumentar el volumen la presión cae de acuerdo con la ley
-
peratura -
al volumen final
bajo la hipérbola (el área rellena en la Fig.12) y puede ser calculada me-
diante la ecuación
Pero ya que la concentración del gas es inversamente proporcional al
volumen, obtenemos . Entonces, si
durante la expansión de un gas iónico su concentración cambió del valor
, la energía interna de ese gas cambia en un
valor por cada mol de gas. Por otra parte, cada mol de
ion monovalente transporta una carga igual a la constante de Faraday .
y finalmente

. Como puedes ver, obtuvimos la ecuación de Nernst y ahora

te puedes dar cuenta de dónde surgió la constante de los gases ideales.

Nosotros desearíamos mucho que tú, observando la ecuación de Nernst, no solamen-


te puedas entender su significado, sino que también puedas apreciar la ardua labor que
hay detrás de esas pocas líneas matemáticas. Esa
fue la labor de botánicos, que midieron la presión
osmótica; de los físicos, que averiguaron las leyes
de la electricidad, que incluyeron al vocabulario
de la física los términos “carga” y “diferencia de
potenciales”, que descubrieron las leyes de la elec-
trólisis y las leyes de los gases ideales; de los quí-
micos, que crearon la teoría de las soluciones y de
la disociación electrolítica; de los matemáticos,
cuyos trabajos le permitieron a Newton y Leibnitz
crear el cálculo integral y diferencial. Algunos de
estos trabajos nosotros los mencionamos en estas
páginas, pero otros no los presentamos porque son
bastante alejados de nuestro tema central. Pero en
este ejemplo nosotros quisimos mostrar cómo en
una ecuación se recopilaron los trabajos e ideas de
miles de investigadores de distintas épocas y
países.
78

De regreso con Bernstein

Pero no pienses que era suficiente con que alguien expresara una idea general
para que todos la aceptaran de inmediato: al mismo Bernstein, y luego a sus
seguidores les tomó años y decenas de años de arduo trabajo, discusiones,
dudas y frustraciones, hasta que, al fin, pudieron demostrar que tenían la razón.
La hipótesis del potencial de la membrana en sí lucía en ese tiempo no mucho
mejor que la hipótesis de la lesión o incluso la hipótesis de las moléculas
electromotrices. Por ello, el primer artículo con una exposición de sus ideas
Bernstein lo publicó solamente cuando obtuvo los datos experimentales
necesarios que pudieran servir como argumentos, aunque fuesen indirectos,
que pudieran servir de prueba.

Bernstein encontró uno de esos argumentos gracias a la misma ecuación de


Nernst. En la ecuación, aparte de las concentraciones desconocidas de iones
, y ésta podía ser no solamente
registrada, sino también ser modificada por el experimentador.
Y efectivamente, en una serie de experimentos en el músculo de rana,
Bernstein demostró que, si la superficie intacta del músculo se calienta, en
cierto rango de temperaturas (no muy altas) el potencial de lesión registrado es
directamente proporcional a la temperatura, tal como lo establece la ecuación
de Nernst. El calentamiento de la lesión, en tanto, no tenía ningún efecto sobre
el valor del potencial. Este era un argumento en contra de la teoría de la lesión.
Otra serie de experimentos fue aún más impresionante. Bernstein demostró
que, al calentar uno de los extremos de un músculo entero e intacto, de la parte
caliente a la parte fría comienza a fluir una corriente. Este resultado también
podía ser deducido de la teoría: en la parte más caliente de la superficie surge
un potencial más positivo que en la fría.
Como ya mencionamos, en 1902 salió publicado el primer artículo de
Bernstein relacionado con la teoría de la membrana. Por ello, 1902 se conside-
ra como el año del nacimiento de esta teoría.
Un punto muy débil de la hipótesis de la membrana era la ausencia com-
pleta de datos que indicaran cuál era el ion que origina el potencial de reposo.
Pero en 1905 un joven colaborador de Nernst (Nernst para ese entonces ya era
el director del Instituto de Química), Fritz Haber, determina que todas las sales
que contienen potasio (por ejemplo, KCl, KNO3, y otras) tienen un efecto simi-
lar sobre el músculo: la parte del músculo que es expuesta a la solución de es-
tas sales se carga negativamente respecto a otras partes del músculo.
Bernstein enseguida entiende la importancia del trabajo de Haber, porque
la teoría de la membrana explica estos resultados de una manera bastante senci-
lla: solamente hay que suponer que es la diferencia de los iones de K+ la que
crea el potencial. Todas las sales que contienen potasio, al disociarse en la so-
lución, aumentan la concentración externa de potasio, provocando una dismi-
, por lo que en la parte del músculo a la cual se
aplica la sal de potasio se observa una disminución del potencial en compara-
ción con otras partes (Fig.13).
Estos datos por sí solos no dicen prácticamente nada. Hermann, casi 40
años antes de Bernstein, examinando el efecto de la temperatura sobre el mús-
culo, observó que una parte alejada del lugar de la lesión, al ser calentada,
incrementa su potencial. Estos datos no tenían explicación en aquel entonces y
por eso fueron prácticamente olvidados. De manera similar, el efecto de las sa-
les de potasio sobre el potencial también había sido observado 10 años antes de
80

Haber, y publicados en el libro de Wilhelm Biedermann que trataba sobre elec-


trobiología, sin embargo, a esos resultados tampoco se les dio importancia.
Solo una construcción teórica puede proporcionar sentido a los resultados ex-
perimentales y permite distinguir los datos importantes de aquellos que no tie-
nen mucha importancia.
En 1912 salió publicado el gran li-
bro de Bernstein “La Electrobiología”.18
En él, Bernstein presentó no solo la ex-
plicación de la generación del potencial
de reposo, sino también de muchos otros
fenómenos que presentaremos a conti-
nuación. Pero es muy importante que
Bernstein predice la gran influencia ge-
neral que tendrá la teoría de la membra-
na. Esta teoría, dice Bernstein, no solo
permitirá explicar el funcionamiento de
los nervios y de los músculos. Porque
según la teoría de la membrana, para la
generación del PR no se requiere que las
células tengan propiedades especiales,
por lo que es muy natural proponer que
este potencial está presente no solo en
los nervios y en los músculos, sino en
todos los tipos de células. Bernstein
explica el funcionamiento del órgano
eléctrico de los peces que lo poseen, el
funcionamiento de las glándulas, el
movimiento de las plantas carnívoras e incluso intenta explicar el movimiento
de los cromosomas durante la división de las células mediante el potencial de
la célula.
No obstante, aún después de la publicación del libro de Bernstein la teoría
de la membrana no provocó una ola de aceptación. Y esto es normal, porque, a
18
Julius Bernstein. Elektrobiologie: Die Lehre von den elektrischen Vorgängen im
Organismus auf moderner Grundlage dargestelt. Braunschweig: Vieweg, 1912.
pesar de la profundidad de la labor teórica realizada, todos los argumentos ex-
perimentales que apoyaban esta teoría eran indirectos: los experimentos solo
probaban las consecuencias de la teoría. Y, como bien entienden los matemáti-
cos, si B resulta de A, eso de ninguna manera implica que A resulte de B. Por
ello, todos los principales postulados de la teoría de la membrana eran más
bien hipótesis que había que comprobar para poder validar la teoría. En otras
palabras, había que comprobar que:
a) La células tienen una membrana permeable a algún ion (K+, o cualquier
otro ion),
b) La concentración de ese ion (que tiene que encontrarse en estado libre, y
no fijado) dentro de la célula debe ser diferente a la concentración de ese
mismo ion fuera de la célula,
c) El potencial surge en la membrana solamente gracias a su permeabilidad
para ese ion y por ello es igual a su potencial de Nernst.
Mientras no existieran datos que comprobaran directamente estos postulados
fundamentales, las conclusiones que se derivaban de ellos podían recibir y
recibían explicaciones alternativas. Por ejemplo, el efecto de la temperatura
podía ser explicado mediante la aceleración de las reacciones químicas en la
superficie del músculo; el efecto del potasio sobre el potencial de reposo
también podía ser visto como una interacción química con las sustancias que
componen las células, etc.
La crítica más fuerte fue dirigida hacia la base de las bases de la teoría—la
existencia misma de la membrana, que nadie había podido visualizar incluso
utilizando los microscopios más potentes. Las críticas estaban orientadas no
solamente al panorama cualitativo de los fenómenos: fueron creadas también
otras teorías que explicaban el surgimiento del PR mediante las propiedades
del protoplasma y predecían la misma dependencia del PR de la temperatura.
De esta manera, resultaba imposible determinar mediante experimentos
indirectos cuál de las teorías era la cierta. Las pruebas experimentales directas
de la teoría de la membrana fueron obtenidas mucho después: éstas requerían
estudios a nivel celular, y en ese tiempo, por sus dimensiones, la célula todavía
no era utilizada como objeto de estudio en experimentos electrofisiológicos.
82

Las pruebas de la teoría de la membrana. ¿Qué hay en el interior de la


célula? ¿Qué hay en su exterior?
De los tres “personajes” de la teoría de la membrana—la membrana, el medio
exterior, y el medio intracelular—solamente había sido bien estudiado el medio
exterior o extracelular. Y no solo porque era el más accesible. Los biólogos
desde hace mucho tuvieron que dedicarse a la cuestión de la composición quí-
mica del medio que rodea a las células y estos trabajos no tenían ninguna rela-
ción con la teoría de la membrana. En cualquier experimento con órganos ais-
lados había que mantenerlos en una solución especialmente preparada. Por
ejemplo, el corazón de la rana no puede mantenerse al aire libre, simplemente
porque se secaría y dejaría de funcionar. Por lo mismo, el corazón no podía ser
colocado en un recipiente con agua simple—bajo el efecto de la ósmosis las
células del órgano morirían.

Por supuesto, la selección de estas soluciones estaba relacionada con los


estudios de la composición de la sangre, del líquido linfático y por lo tanto su
composición era bastante bien conocida (además de tener un valor teórico, es-
tos estudios eran invaluables también en la práctica: por ejemplo en casos de
grandes pérdidas de sangre si no había sangre de donadores ésta podía ser
reemplazada con sueros de solución fisiológica—una combinación de sales que
por su contenido es cercana a la composición del plasma de la sangre).
Por esa razón ya era bastante bien conocida la composición salina (y ióni-
ca) de esos medios extracelulares, lo cuales eran importantes para comprobar la
teoría de las membranas. En todos estos medios, el principal “agente-suminis-
trador” de iones era la sal de mesa—el cloruro de sodio NaCl. Se piensa que
este hecho refleja el origen de los animales, los iones principales del agua de
mar también son el sodio y el cloro.
Sobre todo, es muy interesante y muy importante desde el punto de vista de
la teoría de la membrana que aunque la composición del líquido intersticial (el
líquido extracelular en los organismos) varía notablemente entre organismos
(por ejemplo, este líquido en el molusco marino Aplysia contiene 500 mmol (o
mM) de sodio, mientras que en el molusco de agua dulce Anodonta—tan solo
13 mM), la relación entre las concentraciones de sodio y potasio en estos líqui-
dos es más o menos igual en casi todos los animales19—¡desde la medusa y
hasta el ser humano! La concentración de potasio fuera de la célula es alrede-
dor de 50 veces menor que la del sodio. De esta manera, el líquido extracelular
de todos los animales tiene una composición muy similar a la del agua marina
diluida en diferentes proporciones.
Mucho más difícil era determinar la composición iónica del contenido in-
tracelular. Los científicos intentaban utilizar diferentes métodos para determi-
narla20 pero todos los resultados obtenidos mediante esos métodos eran muy
aproximados: las células son muy pequeñas y entre ellas siempre hay medio
extracelular. Aparte, los partidarios de la teoría de la membrana tenían que de-
mostrar no solamente la presencia del potasio en el interior de las células, sino
su existencia en estado libre, no fijado. Este problema fue solucionado, como
ya había sucedido más de una vez, utilizando dos técnicas: desarrollando nue-
vos métodos de medición, y eligiendo un objeto de estudio adecuado.
En 1936, el especialista en cefalópodos (calamares, pulpos y sus familia-
res), el inglés John Young descubrió en los calamares un nervio cuyo diámetro
alcanzaba un milímetro, convirtiéndolo en casi un gigante entre las células, a
pesar de que por sí mismo este molusco no es tan grande. Un nervio así, aisla-
do y colocado en agua de mar, no dejaba de funcionar inmediatamente. Al fin
había aparecido una célula cuyo contenido podía ser estudiado y con la que se
podía trabajar.
En 1939, los científicos ingleses Alan Hodgkin y su alumno Andrew Hux-
ley por primera vez midieron la diferencia de potenciales a través de la mem-
brana de una célula animal (Fig.14). Ellos también pudieron establecer que,
efectivamente, dentro de ese nervio hay muchos iones de potasio y que esos io-
nes se encuentran en forma de un “gas iónico”, es decir, pueden participar en la
creación del potencial de membrana (PM). Además, el valor calculado del po-

19
A diferencia de los animales, las bacterias, las plantas y los hongos no mantienen
constante su medio externo. En parte, esta es la razón por cual sus células están recubier-
tas de un armazón resistente, que las protege de una posible ruptura provocada por cam-
bios osmóticos.
20
Entre otros—el análisis químico, el estudio de los espectros al quemar las células, los
métodos isotópicos, el método de activación neutrónica.
84

tencial de reposo PR coincidía muy bien con el registrado directamente (al-


rededor de 60 mV).
Extrapolar los datos obtenidos en una sola célula—el axón gigante del ca-
lamar—a las células comunes, pudo ser posible en 1946, cuando los investiga-
dores estadounidenses Ralph Gerard y Gilbert Ling desarrollaron un nuevo
método—el método de los microelectrodos. Un microelectrodo es una pipeta
hecha de un delgado tubo de vidrio estirado de tal manera, que el diámetro de
su punta es de alrededor de 1 µm (una milésima de un milímetro), y cuyo inte-
rior contiene una solución de electrolito. El vidrio juega el papel de aislante y
el electrolito—el papel de conductor.
Un electrodo así puede ser introduci-
do en cualquier célula, prácticamente
sin dañarla.

El uso de esta nueva técnica se ex-


pandió rápidamente en muchos tipos
de estudios y en unos cuantos años
casi conquistó el mundo. El mismo
Gerard en los Estados Unidos registró
el PR del músculo de la rana, cuya
contracción observaba Galvani, y las
corrientes de lesión del cual estudiaba
du Bois-Reymond. John Eccles en
Nueva Zelandia por primera vez registró el potencial de reposo en las células
del cerebro, Bernard Katz en Inglaterra comenzó a estudiar con la ayuda de los
nuevos microelectrodos el efecto del nervio sobre el músculo; en Suiza, Silvio
Widemann fue el primero que alcanzó a introducir el delicado microelectrodo
en una corazón que se contraía.
Pronto se obtuvieron datos bastante completos sobre el PR de diferentes
células, y su valor fue determinado no solamente en miocitos y en nervios, sino
también en los eritrocitos, en las células del epitelio de la piel, del hígado y
otras. Si consideramos que la causa que origina el PR es la diferencia de con-
centraciones de los iones de potasio entre el medio intracelular y el extracelu-
lar, separados por la membrana, y todas las células se parecen en ese aspecto,
entonces la existencia del PR es comprensible, aunque no nos queda claro aún,
por ejemplo, para qué necesitan el PR las células de las glándulas salivarias o
del hígado.
Sobre la utilidad de los microelectrodos defectuosos
Ahora, cuando la medición exacta del PR en una célula individual ya no era un
obstáculo para comprobar la teoría de la membrana utilizando la ecuación de
Nernst, solo quedaba un último paso—aprender a determinar de una manera
igual de exacta la composición iónica de la célula. Y es maravilloso que el
desarrollo de la técnica de los microelectrodos permitió también resolver esta
tarea.

Alan Hodgkin Andrew Huxley


(1914-1998) (1917-2012)

La confección de los microelectrodos era todo un arte: seleccionar el vidrio ne-


cesario, el modo en que se calienta para estirarlo, la velocidad de estiramiento,
para que la punta no se rompiera y para que el canal interno no se tapara, etc,
etc. Pero de repente se observó que si en un experimento se llegaba a utilizar
un electrodo “defectuoso”, sin orificio alguno en la punta, el potencial se regis-
traba de todas maneras, como si el vidrio fuera un conductor y no un material
aislante. Cuando comenzaron a examinar este extraño fenómeno, los investiga-
dores se dieron cuenta de que, efectivamente, las delgadas paredes de los mi-
croelectrodos hechos con algunas marcas de vidrio representaban ¿quién po-
86

dría haberlo imaginado? —una membrana semipermeable, por lo que permitía


el paso a ciertos iones de manera selectiva.
Si un electrodo de este tipo, rellenado con una solución de una concentra-
ción conocida de cierto ion, se sumerge en una solución con una concentración
desconocida del mismo ion, midiendo el potencial de Nernst, se puede utilizar
su ecuación para calcular la concentración desconocida del ion en la solución
examinada.
El empleo de estos microelectrodos junto con el método de los isótopos y
otras técnicas de investigación, permitieron determinar la composición iónica
del contenido intracelular. Tal y como lo predecía la teoría de la membrana, la
concentración de los iones de potasio dentro de las células resultó ser 30-40
veces mayor a su concentración en el medio extracelular. Al mismo tiempo, se
descubrió que la proporción entre las concentraciones de sodio y de potasio al
interior de las células animales es completamente diferente a la proporción
presente en el medio extracelular: mientras que en este medio hay mucho so-
dio, en el interior de las células la concentración de sodio es 10 veces menor a
la concentración de potasio.
Una alta concentración de potasio fue hallada no solo en las neuronas, sino
también en las otras células del organismo (en las células de la piel, en los eri-
trocitos, y otras). Entonces, el contenido interno de todas las células animales
resultó ser diferente de la composición del agua de mar. Durante la evolución
las células crearon sus propias condiciones internas.
La membrana celular
Las cuestiones de la composición iónica de los medios interno y externo, así
como del valor del PR, habían sido resueltas. Indirectamente estos resultados
sugerían la existencia de la membrana celular.
Esa membrana logró ser visualizada solamente a mediados de los años 50
del siglo XX con la ayuda del microscopio electrónico21, ya que su grosor es de
tan solo de 7-15 nm y es imposible verla en un microscopio óptico convencio-
nal. No obstante, antes de que la membrana fuera directamente observada, las
dudas de su existencia habían desaparecido casi por completo; los múltiples
21
El microscopio electrónico fue inventado en 1931 por Max Knoll y Ernst Ruska.
estudios que se basaban en los resultados de los diferentes campos del conoci-
miento (la ósmosis, la existencia en la superficie de la célula de una capa con
alta resistencia, y otros) indicaban claramente su existencia. Es más, para ese
entonces ya se conocía bastante sobre su estructura y sus propiedades: su gro-
sor, su resistencia eléctrica, y otras.
Casi siempre cuando hablamos sobre las predicciones científicas recorda-
mos el descubrimiento del planeta Neptuno, o la predicción de los átomos y las
moléculas, o la predicción por Mendeleev de los elementos químicos que ocu-
paron los lugares respectivos en su tabla. Pero en la biología podemos encon-
trar un número considerable de ejemplos de predicciones científicas. Por ejem-
plo, William Harvey, formulando la teoría de la circulación sanguínea, predijo
la existencia de los vasos capilares, pero solo Marcello Malpighi los pudo ob-
servar hasta que fue inventado el microscopio. De la misma manera, la existen-
cia de la membrana celular fue predicha mucho antes de la aparición del
microscopio electrónico.
Muchas de las propiedades de la membrana fueron obtenidas a través del
análisis de la entrada de diferentes sustancias a la célula. Este es un relato apar-
te, muy emocionante y complicado, que no podemos presentar en nuestro libro.
Pero la conclusión general que se deriva de él es bastante importante. Y es que,
como sabemos ahora, diferentes sustancias entran a la célula mediante distintos
mecanismos: unas sustancias se disuelven en los lípidos de la membrana plas-
mática y penetran directamente a través de ella; otras sustancias, insolubles en
los lípidos (por ejemplo, los iones), pasan por unos “poros” especiales forma-
dos por proteínas de la membrana; otras terceras pasan por un mecanismo
completamente diferente, siendo “engullidas” por la célula, y estos son apenas
algunos de los mecanismos existentes. Al mismo tiempo, los científicos inten-
tan explicar algunos fenómenos (por ejemplo, la entrada de las sustancias a la
célula) desde un punto de vista único. Para la ciencia, el ideal es, por ejemplo,
la teoría de Maxwell, que permitió unificar fenómenos eléctricos, magnéticos y
ópticos describiendo sus propiedades básicas mediante unas cuantas ecuacio-
nes. Una teoría similar era buscada por los científicos que estudiaban la per-
meabilidad de la membrana celular. Pero, como ya sabemos, simplemente no
existe una teoría única que abarque todos estos procesos. Con la existencia de
muchos mecanismos de penetración de sustancias a la célula, basados en dife-
88

rentes principios, siempre aparecía un experimento que derribaba del trono a la


teoría dominante que intentaba explicar todos los datos de la penetración de las
sustancias a la célula. Nosotros ya nos habíamos topado con una situación si-
milar; recordemos cómo Volta intentaba dar una explicación única a la diferen-
cia de potenciales por contacto y el funcionamiento de los elementos galváni-
cos. Así, el impulso natural de un investigador de establecer una teoría única a
veces juega el papel de freno en el desarrollo de la ciencia. Pero regresemos a
la membrana.
La superficie de cada organismo tiene una importancia especial, ya que es
el lugar del contacto entre el organismo y su entorno. Precisamente en la super-
ficie se encuentra una capa protectora (la piel, la coraza, las espinas u otra); en
la superficie se encuentran los órganos de los sentidos; a través de la superficie
el organismo recibe el agua, los alimentos, el oxígeno (el tracto digestivo tam-
bién es parte de la superficie externa, aunque se encuentre en interior del
cuerpo). Todas estas consideraciones también son aplicables a las células indi-
viduales. A través de la membrana externa la célula recibe diversas sustancias,
también a través de la membrana se evacúan algunos productos del metabolis-
mo. En la membrana se encuentran unas proteínas receptoras especiales—los
“órganos de los sentidos” de la célula. Pero la membrana recubre no solo la
superficie de la célula: también en su interior hay múltiples membranas que la
dividen en compartimentos y aíslan sus organelos. Una membrana especial de
doble capa recubre al núcleo, también tienen sus membranas las “estaciones
energéticas” de la célula—las mitocondrias. En unas estructuras especiales de
membranas—las lisosomas—se encuentran algunas de las enzimas celulares,
etc.
Hoy en día conocemos tanto acerca de las membranas, que incluso surgió
una ciencia—la membranología. Para poder hacer un relato completo sobre las
membranas biológicas sería necesario escribir un libro aparte. Libros de este
tipo ya han sido publicados22, por lo que nosotros mencionaremos acá sólo los
datos necesarios para continuar con nuestra historia.

22
Por ejemplo: Biofísica y Fisiología Celular. Eds.: R. Latorre, J. López Borneo, F.
Bezanilla, R. Llinás. Universidad de Sevilla, Sevilla, 1996.
La membrana celular es una capa líquida constituida por sustancias que se
llaman lípidos. La membrana se compone de dos capas lipídicas en las que se
encuentran integradas las moléculas de las proteínas.
A nosotros, por supuesto, nos van a interesar las características eléctricas
de la membrana, que fueron determinadas mediante diversos métodos. Este tra-
bajo comenzó en 1910 en el laboratorio de Nernst, y en él participó el mismo
Haber, quien redescubrió el efecto de las sales de potasio sobre el potencial de
los músculos. Las mediciones fueron realizadas en células suspendidas en un
electrolito. El método básico de medición consistía en pasar a través de la sus-
pensión una corriente alterna de frecuencia variable, permitiendo determinar la
resistencia específica de la suspensión. Una teoría desarrollada especialmente
para ello permitió determinar por separado la resistencia de la membrana celu-
lar y de su protoplasma, ya que la relación entre ambas dependía de la frecuen-
cia de la corriente aplicada.
Desarrollando este trabajo, Hugo Fricke en 1925 demostró que la membra-
na en los experimentos se comporta como una resistencia y una capacitancia
conectados en serie (Fig.15), es decir, él estableció el esquema eléctrico equi-
valente de la membrana celular. Este esquema fue
establecido primero para la membrana de los eri-
trocitos, Fricke utilizaba para sus mediciones la
frecuencia de 4.5 MHz, así que en su trabajo se
basó en los avances en el desarrollo de unos equi-
pos físicos—los generadores de alta frecuencia.
Posteriormente se logró determinar la resistencia
de la membrana de diversas células, se midió su
capacitancia, así como la resistencia específica
del protoplasma. H. Fricke y Howard Curtis tra-
bajaron con eritrocitos, leucocitos, con el alga unicelular Chlorella, con leva-
duras (en los años 1925-1934); Kenneth Cole trabajó con ovocitos de equino-
dermos (los erizos de mar y sus familiares), así como con células musculares y
neuronales (en los años 1938-1939).
90

En todos esos experimentos, la capacitancia específica de la membrana era


aproximadamente igual a 1 µF/cm2.23 Tampoco la resistencia específica del
protoplasma en todos estos objetos de estudio variaba mucho, y era cercana a
los 100 Ohm∙cm, o sea, un valor más o menos similar al del agua marina. En
cambio, ¡la resistencia específica de las diferentes membranas resultó ser com-
pletamente diferente! Por ejemplo, la resistencia específica de la membrana de
los ovocitos del erizo de mar es solamente 100 Ohm∙cm2, mientras que la resis-
tencia específica de la membrana de la Nitella, un alga de agua dulce es de 100
000 Ohm∙cm2.24
¿Por qué las membranas de diferentes células tienen una capacitancia específi-
ca más o menos similar pero una resistencia específica tan diferente? La res-
puesta está en que la capacitancia de la membrana se determina por su capa li-
pídica, que puede ser vista como una capa dieléctrica que se encuentra entre
dos láminas conductivas de un condensador eléctrico.
La ecuación para calcular la capacitancia de un condensador eléctrico
plano es:
23
¿Qué significa “específica”? Si examinamos de qué factores depende la capacitancia
de una membrana veremos que, entre otras cosas, ésta depende del área de la membrana
que estamos examinando. Por ello, para comparar la capacitancia de la membrana de dos
muestras, debemos procurar que el valor de sus áreas sea el mismo. Como esta condición
es prácticamente imposible de cumplir, para poder comparar la capacitancia de la mem-
brana de diferentes muestras se decidió utilizar la unidad específica, es decir calcular la
capacitancia de un área específica de la membrana (por ejemplo, de un centímetro cua-
drado de membrana). De esta manera podemos comparar la capacitancia de la membra-
na, por ejemplo, de una bacteria, invisible a simple vista, con la capacitancia de la mem-
brana de un ovocito (el óvulo de la rana) que puede ser observado a simple vista sin ins-
trumentos especiales.
24
Presta atención a la extraña dimensión de la resistencia específica de la membrana:
Ohm∙cm2. En algunos libros en esta ecuación se puede encontrar un error—los centíme-
tros cuadrados son escritos en el denominador. En la electrofisiología, la resistencia es-
pecífica (o resistividad) de la membrana no se determina como la resistencia de 1 cm3 de
la sustancia de la membrana ( ρ , que se calcula como ρ = RS / l [la resistencia de un
conductor de un área transversal S , de un largo l y con una resistencia total R ], ecua-
ción de la cual podemos obtener la resistencia de un conductor de un volumen igual a 1
cm3 R = ρ l / S ). En la electrofisiología la resistencia específica de la membrana se
calcula para 1 cm2 de membrana, es decir, es igual al producto de la multiplicación ρ l
en la ecuación para R .
,

es la permitividad eléctrica (o constante dieléctrica) de la sustancia de


—la constante de la permitividad eléctrica, —el área de la
membrana, —su grosor. Ya que el grosor y la permitividad de las bicapas li-
pídicas de diferentes células son bastante similares, coincide también el valor
de la capacitancia específica de la membrana.25
En cambio, la resistencia de la membrana depende no de los lípidos, sino de las
proteínas que están integradas en la capa lipídica. Estas moléculas son
diferentes en distintas células, y difieren tanto en su número como en sus
propiedades. Es por eso que las diferentes membranas tienen una resistencia
específica tan diferente. Si eliminamos a las proteínas de las bicapas lipídicas,
la resistencia específica de la membrana “pura” será bastante alta—alrededor
108 Ohm∙cm2.
Con la ayuda del método de isótopos y de otros métodos fue demostrado
que la membrana celular efectivamente es semipermeable: permite el paso a
los iones positivos de potasio, pero impide el paso a los aniones intracelulares
(grandes moléculas orgánicas y fosfatos).
Pero regresemos con la teoría de la membrana.
25
Nosotros ya pudimos ver cómo una misma ecuación de Nernst puede ser utilizada tan-
to para calcular el PR, como para determinar la concentración de potasio dentro de la cé-
lula en función de los valores que conozcamos. Asimismo, utilizamos la ecuación de la
capacitancia del condensador para explicar el parecido entre los valores de las capacitan-
cias específicas de diferentes membranas, y en 1925 Fricke empleó esta misma ecuación
para determinar el grosor de la membrana, midiendo la capacitancia específica y consi-
derando que la permitividad del material de la membrana es igual a 3—el valor para
otros lípidos. Basándose en el grosor que obtuvo a través de sus cálculos, él llegó a la
conclusión de que la membrana está compuesta de una o dos capas de moléculas. Es in-
teresante también ver cómo el mismo año fue demostrado mediante un método completa-
mente diferente que las membranas biológicas son bicapas: se tomó cierta cantidad de
eritrocitos y se midió su área, luego sus membranas fueron disueltas y se midió el área de
la mancha de lípidos que flotaba sobre el solvente. El área medida resultó ser el doble del
área determinada para los eritrocitos. Considerando que la mancha flotante estaba com-
puesta solamente por una capa de lípidos, se llegó a la conclusión de que la membrana en
las células tiene dos capas de lípidos.
92

Los experimentos en la membrana “pura”: la teoría de la membrana


canta victoria
En 1961, Alan Hodgkin y sus colaboradores Peter
Baker y Trevor Shaw realizaron un experimento
muy fino. Cuando Young descubrió el axón gigante
del calamar, él notó que éste puede ser exprimido
como un tubo de pasta, quedando nada más la “piel”
del nervio. Precisamente esta envoltura, es decir, la
membrana del axón, fue la que empezaron a utilizar
Hodgkin y sus colaboradores para realizar sus expe-
rimentos. Ellos tomaban el axón, lo colocaban sobre
una superficie de resina, para no dañarlo, y median-
te un rodillo también de resina le extraían el proto-
plasma. De esta manera obtenían un tubo de la pura
membrana. Este tubo podía ser rellenado por una de
sus puntas con diferentes soluciones, utilizando para ello una pipeta. De esta
manera, se obtuvo la oportunidad de trabajar en la membrana de un nervio, y
de cambiar libremente la concentración de los iones tanto fuera, como dentro
del axón. Si el axón se rellenaba de soluciones que contenían iones de potasio
con una misma concentración que en el protoplasma (el medio externo utiliza-
do era agua de mar), en el axón surgía el potencial de reposo normal cercano a
50-60 mV (con el signo “menos” en el interior del nervio) (Fig.16). Al mismo
tiempo, se descubrió que la naturaleza de los iones negativos que eran suminis-
trados junto con el potasio no era de gran importancia. Si la concentración de
potasio dentro del nervio era igual a su concentración en el lado externo, el po-
tencial de Nernst era igual a cero, tal y como lo predice la ecuación de Nernst.
En cambio, si el nervio era rellenado de agua de mar y en el lado exterior se
aplicaba la solución de potasio, el signo del potencial de reposo cambiaba al
opuesto: el interior del nervio se tornaba positivo y su exterior—negativo. El
potencial de reposo en este caso coincidía con el calculado utilizando la ecua-
ción de Nernst. De esta manera, la aplicación en el interior del nervio de solu-
ciones salinas de diferente composición permitió comprobar los resultados ob-
tenidos anteriormente mediante el cambio de la concentración externa de los
iones de potasio.
Estos experimentos demostraron, primero, el papel decisivo de la membrana en
la generación del PR—porque el protoplasma y todos los organelos fueron
extraídos, y, segundo, el papel decisivo de los iones de potasio en este proceso.
La membrana del nervio funcionaba exactamente como lo predecía la teoría de
la membrana de Bernstein.
La teoría de la membrana requiere de un análisis más profundo
Muchas veces, cuando la teoría llega a su madurez, recibe la aceptación, co-
mienza a aumentar la exactitud de las mediciones y comienzan a aparecer des-
viaciones que requieren una explicación. Las leyes de Kepler postulaban que
los planetas se mueven por órbitas elípticas, pero haciendo mediciones más
exactas se descubrió que las órbitas no
son exactamente elípticas, sino que exis-
ten perturbaciones que fueron explicadas
como el resultado de la acción de la fuer-
za de gravedad originada por otros plane-
tas. Precisamente tomando en cuenta esas
perturbaciones fue como se pudo descu-
brir el planeta Neptuno.
Lo mismo sucedió con la teoría de la
membrana. Cuando los métodos de medi-
ción del PR y de las concentraciones ió-
nicas alcanzaron una sensibilidad sufi-
ciente, se descubrió que en realidad el
potencial de reposo registrado siempre es
menor al calculado utilizando la ecuación
de Nernst. Quedaba claro que existía
cierta “perturbación” que no era conside-
rada por la teoría de Bernstein.
Fue de nuevo el axón del calamar el que ayudó a encontrar la causa de la
divergencia entre la teoría y el experimento. Trabajando con el axón gigante,
Alan Hodgkin y Bernard Katz determinaron que el PR registrado en el experi-
mento es más cercano al valor teórico solo en un caso, específicamente—si se
eliminaba por completo al sodio del medio externo.
94

Pero ¿qué tiene que ver el sodio? Si, como pensaba Bernstein, la membrana es
permeable solamente para el potasio, entonces ¡el sodio no debería influir de
ninguna manera en el PR! ¿Qué pasaría si, rechazando la “base de las bases”
de la teoría de la membrana se suponía que el sodio también pasa a través de la
membrana? Es fácil adivinar que entonces los iones de sodio, que se encuen-
tran presentes en una alta concentración en lado exterior, van a penetrar al inte-
rior del nervio siguiendo su gradiente de concentración, generando su propio
potencial de Nernst, con un signo opuesto al potencial creado por el potasio,
por lo que el PR total va a disminuir.
Hodgkin y Katz revisaron sus ideas con un experimento, cambiando la
concentración de sodio en el medio exterior y comparando los valores del PR
con el valor calculado. Como resultado, ellos establecieron que para que los re-
sultados de los cálculos coincidieran con los datos experimentales, había que
admitir que la resistencia por la que pasan los iones de sodio es 25 veces mayor
a la resistencia de la membrana para los iones de potasio. Esto significa que la
permeabilidad de la membrana para los iones de sodio, aunque sea 25 veces
menor que la permeabilidad para el potasio, no es nula.
Muy pronto la posibilidad de que los iones de sodio pueden pasar a través
de la membrana del axón gigante fue comprobada directamente en experimen-
tos con un isótopo radiactivo de sodio. En el transcurso de esos trabajos los
científicos descubrieron una sustancia especial—la tetrodotoxina (la potente
toxina del pez globo), que bloqueaba el paso del sodio a través de la membra-
na. Ahora sí se pudo demostrar que, si se añadían iones de sodio y la tetrodoto-
xina al agua de mar que rodeaba el axón, el sodio deja de fluir a través de la
membrana, y el PR aumenta hasta alcanzar el valor exacto predicho por la
ecuación de Nernst. De esta manera se pudo comprobar el papel del sodio en la
generación del PR.
A primera vista parece que estas correcciones introducidas por Hodgkin y
Katz a la teoría de la membrana de Bernstein no son muy importantes. Pues sí,
la membrana, además del potasio, permite el paso a un poco de sodio: el pota-
sio genera el potencial de un signo, el sodio—de otro signo, por lo que el valor
del PR resultante resulta ser un poco menor al PR que produciría el potasio por
sí solo.
Pero en realidad la situación cambiaba drásticamente… En la membrana se
establece un potencial intermedio que en realidad no es el potencial de equili-
brio para ninguno de los dos iones. Por eso ambos iones empiezan a fluir en la
dirección del gradiente de concentración: los iones de sodio—hacia el interior
del nervio, y los iones de potasio—hacia el exterior, hasta que se igualen las
concentraciones de al menos uno de ellos.
Pero ¿cómo es que la célula mantiene en su interior una baja concentración
de sodio y una alta concentración de potasio? ¿Y de dónde proviene la energía
necesaria para este proceso? Porque transportar iones contra su gradiente de
concentración es lo mismo que pasar un gas de un recipiente con una presión
baja a un recipiente con una presión alta.
La respuesta a esta pregunta la encontrarás en el Capítulo 5.
96

Capítulo 4

Sobre cómo es que surge el impulso nervioso

… La eficacia irracional de la matemática en las ciencias naturales es algo


que colinda con la mística…
Eugene Wigner
Cuando a Bernstein se le ocurrió la idea de la “electricidad animal”, él intentó
explicar no solamente el surgimiento del potencial de reposo, sino también el
segundo fenómeno principal de la electrobiología—el fenómeno de la excita-
ción. Para ese entonces, como te podrás acordar, ya no se dudaba que tanto la
contracción muscular como la transmisión de la señal a través de los nervios
están relacionados con la electricidad. Fue precisamente Bernstein quien, tra-
bajando junto con Hermann, comprobó mediante experimentos directos que la
parte de la superficie del músculo o del nervio que era excitada por un tiempo
muy corto (milésimas de segundo) se carga negativamente respecto a la parte
intacta no excitada, y que este potencial es aproximadamente26 igual al poten-
cial de lesión.
La hipótesis del “orificio eléctrico”
A la hora de explicar este fenómeno, las ideas académicas de Hermann y
Bernstein se separaron y cada uno de ellos encontró una explicación diferente.
Para Hermann—el autor de la teoría de la lesión—el músculo en reposo, es de-
cir, no excitado e intacto, era eléctricamente neutro: según Hermann, la fuente
del “potencial de acción” surgía en el lugar de la estimulación en el momento
exacto de la estimulación (Fig.17)
En cambio, para Bernstein el panorama era completamente diferente: se-
gún él, la parte interna de la célula siempre está cargada negativamente respec-
to al medio externo y no hay necesidad de involucrar una fuente de corriente
adicional, simplemente hay que utilizar la que ya se tiene. Bernstein propuso

26
¡Recuerda este “aproximadamente”!
que, durante la estimulación de un tejido excitable, en la membrana surge un
“orificio”, pero no de verdad, como ocurre cuando se corta o se lesiona el mús-
culo, sino un “orificio eléctrico”, un orificio que permite el paso a las corrien-
tes. En otras palabras, la membrana comienza a ser permeable no solo para el
potasio, sino también para otros iones.

De esta hipótesis enseguida se deriva una conclusión que permite diseñar el ex-
perimento necesario para comprobar la idea: de acuerdo a esta idea, la presen-
cia de un “orificio” en la zona de la excitación debe disminuir la resistencia de
la membrana. Bernstein intentó comprobar esta predicción de manera experi-
mental, pero él no alcanzó a desarrollar y a fundamentar su hipótesis: el libro
con la exposición de la hipótesis de la membrana vio la luz en 1912, dos años
después comenzó la Primera Guerra Mundial, y en 1919 Bernstein muere.
La predicción de Bernstein sobre el cambio de la permeabilidad de la
membrana durante la excitación pudo ser comprobada solamente un cuarto de
siglo más tarde—en el año 1938. Y aunque los estudios de las membranas que
se retomaron después de la Segunda Guerra Mundial se fueron perfeccionando,
todavía quedaban grandes dificultades técnicas, pues había que determinar
98

cambios en la resistencia de la membrana que duraban ¡apenas unos cuantos


milisegundos!
Este problema fue solucionado de manera exitosa por los científicos esta-
dounidenses Kenneth Cole y Howard Curtis. Al igual que Fick, quien en su
momento pudo encontrar un modelo adecuado (el músculo “lento” del molusco
Anodonta) para estudiar la dependencia de la corriente de umbral en función
del tiempo de la aplicación de la corriente, Cole y Curtis eligieron un objeto di-
ferente de los tradicionales nervios y músculos. Este objeto era un alga de agua
dulce—la Nitella. Desde hace mucho se sabía que las plantas también poseen
células excitables. También se sabía que en los tejidos vegetales los procesos
eléctricos son mucho más lentos: por ejemplo, el impulso eléctrico se propaga
con una velocidad de tan solo algunos centímetros por segundo (en compara-
ción con la velocidad de decenas de metros por segundo en la rana). Además,
el diámetro del nuevo objeto de estudio era muy cercano al diámetro del axón
de calamar—cerca de un milímetro.
En este modelo bastante exótico, Cole y Curtis realizaron su experimento y
establecieron, tal y como se había predicho, que durante la excitación la resis-
tencia de la membrana disminuye pero no hasta cero, sino solamente unas 200
veces.
Un año después, aprovechando el descubrimiento del axón de calamar, los
mismos autores demostraron que la membrana de ese nervio también disminu-
ye su resistencia durante la excitación, y tampoco hasta cero, aunque esta dis-
minución es menor a la observada en la Nitella: tan solo unas 40 veces.
“Aproximadamente igual”—¿pero un poco más o un poco menos?
De acuerdo a la hipótesis de Bernstein, el surgimiento del potencial de acción
representa una especie de “corto circuito” entre el medio extracelular y el me-
dio intracelular, durante el cual el potencial de la membrana disminuye hasta
cero. En este caso, el potencial de acción (PA) que se registra en el experimen-
to como una diferencia de potenciales entre las partes excitada y no excitada
del nervio debería ser igual al potencial de reposo (PR), es decir—igual a la di-
ferencia entre la superficie del nervio y la zona lesionada (Fig.17). Ya que la
resistencia de la membrana excitada no disminuía hasta cero, se consideraba
que la magnitud del PA no alcanza al valor del PR, sino que es un poco menor.
Pero precisamente esta conclusión, tan lógica y sencilla, no coincidía con
los datos experimentales.
Cuando en su tiempo Bernstein registraba el PA, éste, efectivamente, resul-
taba más o menos igual al PR, o incluso el PA tenía una magnitud un poco ma-
yor al PR. Aunque, a decir verdad, estas mediciones no eran muy precisas: se
consideraba que 0.08 V o 0.11 V eran aproximadamente iguales 0.1 V y nadie
les daba importancia a estas pequeñas diferencias. Además, en ese tiempo los
potenciales eran registrados en músculos o nervios completos, los cuales esta-
ban constituidos por una multitud de células con propiedades diferentes.
Unos datos más exactos sobre la magnitud del PA fueron obtenidos en
1891 por Burdon Sanderson en un músculo de rana, y de nuevo el PA resultó
ser mayor al PR. Pero también él realizó sus registros del PA en un músculo
entero e intacto, así que también era difícil determinar qué era lo que se regis-
traba. Es más, mientras la teoría de la membrana no había sido desarrollada es-
tos resultados no contradecían ningún postulado.
Pero cuando en el año 1936 el científico alemán Hans Shaefer obtuvo el
mismo resultado utilizando equipos mucho más sofisticados, esta desviación
de lo que predecía la teoría ya debía alertar a los demás investigadores: los
métodos de medición ya eran bastante sensibles para considerar importante la
diferencia de 15-20 mV entre el PR y el PA. Pero incluso estas diferencias las
explicaban más bien como un artefacto del experimento y no como un defecto
de la teoría.
Los científicos se alarmaron solo en el año 1939. Al mismo tiempo, dos
grupos de investigadores—Kenneth S. Cole y Howard J. Curtis en la estación
marina de la Institución de Oceanografía en Woods Hole (Estados Unidos), y
Alan Hodgkin y Andrew Huxley en la Estación de Biología Marina de Plimou-
th (Inglaterra)—realizaron mediciones del PA y el PR utilizando los equipos
más avanzados de esos años: ellos tomaron el axón gigante del calamar, es de-
cir un nervio individual, le insertaron un electrodo en el interior y pudieron de
esta manera medir directamente la diferencia de potenciales entre las partes in-
ternas y externas de la membrana de una sola célula, y no en grupo de células.
100

Ellos determinaron que en condiciones de reposo la diferencia de potenciales a


través de la membrana es aproximadamente igual a 80 mV (con el “menos” en
el interior del nervio), y al excitarse la membrana no se descarga, como pensa-
ba Bernstein (es decir, el potencial no cae hasta cero), sino que se carga de
manera opuesta: el “menos” aparece en el lado externo de la membrana, y el
“más”—en el interior del nervio. En ese
momento, la diferencia de potenciales
que se establece es igual a 40 mV. En-
tonces, durante la excitación el cambio
del potencial de la membrana no es igual
al PR, sino a la suma del PR más el po-
tencial adicional, de signo opuesto
(Fig.18). Es por esta razón que los expe-
rimentos presentaban de manera tan per-
sistente el sobrepaso del PA sobre el PR.
Este potencial excedente recibió el nom-
bre de “overshoot”.27
Por lo tanto, la idea del “orificio
eléctrico” no superó la prueba: la gene-
ración del PA no podía ser explicada por
un corto circuito en la membrana. Los
experimentos con las mediciones de la resistencia de la membrana predecían
que el PA debía ser menor al PR, aunque en realidad el PA resultó ser mucho
mayor que el PR.
¡Cómo no se les ocurrió!
Había que encontrar una manera de explicar el surgimiento de ese potencial
“adicional”. A decir verdad, todos los datos necesarios para la solución de este
problema ya eran conocidos, las ideas requeridas ya habían sido propuestas—
quedaba solamente reunir todos los datos, analizarlos y hacer las conclusiones.
Intenta tú solo, sin leer la continuación, ver esos datos en las páginas 83 (la
diferencia entre las concentraciones Na+ y K+ dentro del nervio), 86 (las
concentraciones y proporciones entre K+ y Na+ dentro de la célula) y 93-94 (el
27
Del inglés overshoot—sobrepaso
papel del sodio en el surgimiento del PR) e intenta proponer un mecanismo
para el surgimiento del PA. Para ello solamente es necesario reemplazar las
condiciones marcadas con puntos en la tabla de abajo:

PR PA
(“+” en el exterior, “−” en el (“+” en el interior, “−” en el
interior) exterior)
Surge porque
En condiciones de reposo, la Durante la excitación, afuera de la
concentración de potasio al interior célula hay más …………..,
de la célula es alta, afuera de la mientras que su concentración
célula la concentración de potasio adentro de la célula es menor, y la
es baja, la membrana es permeable membrana es permeable para
para los iones de potasio ………………

Al realizar este ejercicio tú obtendrás, hablando en general, la formulación de


la hipótesis del sodio en la generación del potencial de acción, los autores de la
cual son los ya conocidos Hodgkin y su colaborador Huxley.
Según esta hipótesis, durante la excitación la membrana no pierde por
completo su permeabilidad selectiva (como en el caso de que hubiera un “orifi-
cio eléctrico”), sino que la cambia: si previamente (durante el PR) la membra-
na era más permeable para los iones de K+, al excitarse ésta se vuelve más per-
meable para el Na+. Y ya que hay más sodio afuera de la célula, este ion entra a
través de la membrana y cambia el signo de la carga, resultando en una especie
de “PR al revés”. Este detalle permite explicar el overshoot.
Como podemos ver, la hipótesis del sodio encaja tan bien en la teoría de la
membrana, que parece extraño que por más de diez años los investigadores no
pudieran explicar las contradicciones entre la existencia del overshoot y la teo-
ría de la membrana. Aunque este hecho puede ser explicado si recordamos que
el overshoot fue descubierto en 1939. Al igual que la Primera Guerra Mundial
le impidió a Bernstein investigar la hipótesis de los “orificios”, el comienzo de
la Segunda Guerra Mundial el 1 de septiembre de 1939 obligó a Hodgkin y
Huxley a apartarse de sus investigaciones. Durante la guerra Hodgkin trabajó
en las Fuerzas Aéreas y se dedicó a desarrollar estaciones de radiolocalización.
Solamente después de la guerra—a fines de los años 40 y comienzos de los
102

años 50 del siglo XX, la hipótesis del sodio se convierte en la elegante,


experimentalmente comprobada y lógica teoría del sodio.
De la hipótesis a la teoría
La primera revisión experimental de la hipótesis fue emprendida por Alan Ho-
dgkin y Bernard Katz en 1949. Los investigadores decidieron examinar cómo
influyen en la magnitud del PA el cambio de las concentraciones de potasio y
de sodio en el medio externo. Ellos demostraron que la magnitud del PA de-
pende de la concentración del sodio así como el PR depende de la concentra-
ción de potasio, es decir, obedece completamente a la ecuación de Nernst. Este
resultado, aunque era una evidencia indirecta, también era un argumento muy
fuerte a favor de la hipótesis del sodio: este hecho implicaba que en la mem-
brana excitada la permeabilidad para el potasio cambia por la permeabilidad
para sodio. Utilizando un método más fino para comparar la permeabilidad de
la membrana para el potasio y para el sodio, Hodgkin y Katz establecieron que
en condiciones de reposo la membrana es más o menos 25 veces más permea-
ble para el potasio que para el sodio, y durante la excitación—al revés, la per-
meabilidad para el sodio comenzaba a ser 20 veces mayor para el sodio que
para el potasio.
La idea principal de la hipótesis del sodio fue comprobada por Richard
Keynes y colaboradores en 1951 mediante el método de isótopos. Estos inves-
tigadores demostraron que, efectivamente, durante la excitación entran al ner-
vio mucho más iones que en condiciones de reposo. Pero también resultó que
el potasio tampoco deja de salir de la célula. Su flujo, incluso, llega a crecer en
comparación con las condiciones de reposo.
Entonces, la idea principal que introdujeron Hodgkin y Huxley a la teoría
de la membrana, de que la permeabilidad de la membrana para distintos iones
no es una constante, sino que puede cambiar en función de las condiciones
aplicadas, resultó ser correcta.
Pero esta idea general por sí sola no era suficiente para explicar el mecanis-
mo de la excitación y todos los fenómenos relacionados con éste (la existencia
de un umbral, el período refractario y otros).
Todavía no se había establecido cómo cambian en el tiempo la permeabilidad
de la membrana para el potasio y para el sodio, y, sobre todo, —de qué factores
dependían esos cambios.
Los experimentos con la estimulación intracelular del axón habían demos-
trado que para el surgimiento de la excitación era necesario que el potencial de
la membrana cambiara hasta llegar al valor umbral. Los cambios del potencial
umbral durante el período refractario dependían del tiempo, ya se conocía la
curva “intensidad-tiempo” para el músculo, y por ello Hodgkin y Huxley pro-
pusieron que la permeabilidad de la membrana depende de dos factores: del
potencial de la membrana y del tiempo transcurrido desde el momento del
cambio del potencial. Quedaba por comprobar si esta idea era cierta.
Pero determinar esto era muy difícil, y no solo porque el proceso de excita-
ción, como ya mencionamos más de una vez, es muy rápido. Otra dificultad es-
taba relacionada con el siguiente efecto: cualquier cambio del potencial en la
membrana—y en esto consiste el fenómeno de la excitación—provoca, según
la hipótesis, un cambio en la permeabilidad para el sodio y para el potasio, pero
a su vez el cambio de la permeabilidad provoca enseguida un cambio en el po-
tencial. También es importante el hecho que cualquier cambio en el potencial
provoca enseguida una corriente de capacitancia, porque desde el punto de vis-
ta eléctrico la membrana corresponde a una resistencia y un condensador, co-
nectados en paralelo.
La herramienta crucial que permitió responder a estas preguntas sobre la
permeabilidad de la membrana celular fue el método desarrollado por Hodgkin
y Huxley—el método de fijación del potencial. ¡Aquí es donde le sirvió a Ho-
dgkin la experiencia acumulada durante la guerra en el área de los equipos de
radiolocalización! Hodgkin construyó un equipo especial, que con la ayuda de
esquemas electrónicos detectaba las más diminutas variaciones del potencial y
respondía de manera muy rápida aplicando una corriente que compensaba estos
cambios. Mediante este esquema de control se mantenía en la membrana un
potencial constante, por el tiempo que fuese necesario.
Podemos decir que los investigadores ahora ya tenían las manos desatadas:
en primera, si el potencial de la membrana no cambia, entonces no pasa la co-
rriente a través del condensador—la capacitancia de la membrana; en segunda,
104

fijando el potencial se podía comprobar si efectivamente la permeabilidad de la


membrana cambia con el tiempo por sí sola, independientemente del potencial
aplicado.
El experimento se realizó de la siguiente manera. De manera muy rápida
(en el transcurso de centenas de microsegundos) se le aplicaba a la membrana
el potencial requerido y luego la mantenían en ese mismo nivel durante un
tiempo prolongado (varios milisegundos). Durante este tiempo se registraba la
corriente que era necesario aplicar para com-
pensar los cambios de potencial que surgían
en la membrana. La corriente, en este caso,
era proporcional a la conductancia28 de la
membrana en cada momento del tiempo.
Para separar las permeabilidades para el
sodio y para el potasio eran utilizados medios
que contenían solamente alguno de estos io-
nes, o sustancias especiales que bloqueaban
el paso al sodio o al potasio a través de la
membrana.
Una vez que Hodgkin y Huxley concluyeron una amplia serie de experi-
mentos con su equipo, ellos obtuvieron las gráficas empíricas de la dependen-
cia de los cambios de la permeabilidad en función del cambio del potencial en
el tiempo. Ellos determinaron que cualquier desviación del potencial de la
membrana del valor del PR, que era igual a −80 mV, efectivamente provocaba

28
En los experimentos con fijación del voltaje se podía determinar solamente la conduc-
tancia de la membrana. Pero hasta el momento nosotros hemos estado hablando sobre su
permeabilidad para algunos iones. La permeabilidad es una característica de la membra-
na, y la conductancia es un parámetro eléctrico. La diferencia entre estos dos términos se
puede comprender en el siguiente ejemplo. Si retiramos del medio externo todos los io-
nes de potasio, la permeabilidad de la membrana para el potasio no cambia (porque ésta
no depende de la presencia de los iones en el medio), pero la conductancia para el pota-
sio se iguala a cero, ya que, a cualquier diferencia de potenciales aplicada, la corriente de
potasio es igual a cero. No obstante, en presencia de concentraciones normales de iones,
la permeabilidad de la membrana y su conductancia cambian de manera similar y por eso
los experimentos con la fijación del potencial permiten determinar también los cambios
en la permeabilidad de la membrana para el sodio y para el potasio.
un cambio en la permeabilidad de la membrana tanto para el potasio, como
para el sodio.
En la Fig.19 se muestra el resultado de uno de los experimentos de este
tipo. En esta figura, el eje vertical representa la corriente que pasa a través de
un área específica de la membrana. El eje horizontal representa el tiempo
transcurrido desde el momento de la fijación del potencial en un nivel dado.
Como vemos, la corriente va incrementando, lo que significa que la resis-
tencia de la membrana disminuye: si el potencial de membrana es constante,
según la ley de Ohm el producto de la multiplicación de la corriente por la re-
sistencia debe ser constante. Pero la disminución de la resistencia implica que
hay un incremento de la conductividad de la membrana para los iones de pota-
sio. Este resultado muestra que la permeabilidad para el potasio no solo
depende del potencial aplicado a la membrana, sino también del tiempo.
Ahora te pediremos, nuestro estimado lector, que trates de comprender los
resultados obtenidos en experimentos similares que se muestran en las
Figs.20A,B. En la primera figura se muestra la dependencia del cambio de la
conductancia en función del potencial aplicado y del tiempo transcurrido. En la
segunda figura se muestra la misma función para el sodio. Si el potencial de la
membrana es más o menos igual a −80 mV, es decir, al potencial de reposo,
entonces las conductancias para el potasio y para el sodio no cambian, siendo
la primera 25 veces mayor que la segunda, e igual a 1 mS/cm2.29 A la escala
presentada, esa permeabilidad inicial para el potasio (y para el sodio) es prácti-
camente invisible. Si cambiamos el valor del potencial de −80 mV a −42 mV
(la segunda curva contando desde abajo en la Fig.20A), es decir, al despolari-
zar la membrana por 38 mV, la conductancia para el potasio aumenta, aunque
muy lentamente al principio: durante el primer milisegundo prácticamente no
cambia, luego aumenta paulatinamente durante los siguientes 5-8 ms y después
de cierto tiempo permanece constante en un nuevo nivel. En las curvas de la
Fig.20A se puede notar que mientras más grande es el cambio del potencial en
la membrana mayor será el valor de este nuevo nivel, aunque no sobrepasa
cierto valor determinado.

29
El Siemens (S) es la unidad de la conductancia. Un conductor con una resistencia de 1
Ohm tiene una conductancia de 1 S.
106

En contraste, la permeabilidad para el sodio aumenta muy rápido (en menos de


1 ms), pero luego disminuye hasta un nuevo valor; este valor es tanto menor,
mientras más fuerte sea la despolarización: si la membrana se despolariza por
30 mV o más, la permeabilidad para el sodio disminuye prácticamente hasta
cero. Como podemos apreciar en la Fig.20B, el nivel máximo alcanzado por la
conductancia de sodio y la velocidad de su aumento también dependen de la
magnitud del cambio de potencial de membrana: mientras más grande es la
despolarización, mayor es el valor máximo, aunque, al igual que en el caso del
potasio, hay cierto valor-límite para este incremento.
Estos datos, apenas descritos en una forma cualitativa, permiten explicar de
manera general cómo surge la excitación y el PA.
El potencial de acción surge cuando la membrana del nervio o del músculo
se despolariza hasta cierto nivel, por ejemplo, hasta un potencial de −50 mV,
bajo el efecto de cierto estímulo. Esto enseguida provoca un aumento de la per-
meabilidad de la membrana para el sodio. Los iones de sodio comienzan a en-
trar al nervio siguiendo el gradiente de su concentración. La entrada del sodio
continúa despolarizando la membrana. Esto a su vez continúa aumentando la
permeabilidad de la membrana para el sodio, y así sucesivamente. Surge un
proceso parecido a una avalancha que provoca que la membrana cambie su po-
tencial a uno de signo opuesto. Estos procesos duran fracciones de milisegun-
dos y son los que provocan la fase de “subida” rápida del potencial de acción.
Luego la permeabilidad para el sodio comienza a disminuir, pero, además,
comienza a aumentar la permeabilidad para el potasio. Como resultado, el flujo
saliente de los iones de potasio aumenta hasta rebasar en su magnitud el flujo
de los iones de sodio, dirigido al interior del nervio, y el potencial de la mem-
brana regresa a su valor inicial.
Esta explicación del PA es muy general y esquemática, pero, además, no es
muy correcta. Y es que, aunque la fijación de potenciales es un método muy
bueno, también oculta un detalle: en realidad, durante la excitación de un ner-
vio real la permeabilidad nunca cambia como se muestra en la Fig.20. Durante
la excitación el potencial nunca queda constante, nunca se “fija” tal como lo
hace el método, así que para la descripción de un proceso real no se debe se-
guir cada una de las curvas presentadas, sino que con la imaginación hay que
“saltarse” de una curva a la otra.
Adicionalmente, en realidad la permeabilidad (tanto la del potasio como la
del sodio) es una función no de dos variables—del potencial y del tiempo, sino
de tres variables: el potencial, el tiempo y las condiciones iniciales que deter-
minan el estado de la membrana al momento de su estimulación. La familia de
curvas mostrada en la Fig.20 solamente describe el caso cuando el potencial
inicial de la membrana es igual al PR, es decir −80 mV. Pero si al momento de
la estimulación el potencial aplicado a la membrana era otro, entonces tanto los
108

valores iniciales de la permeabilidad para el potasio y el sodio, así como sus


cambios, serían completamente diferentes.
Precisamente por eso, si nosotros quisiéramos, por ejemplo, resolver gráfica-
mente el problema del cálculo de la permeabilidad a un potencial variable, y no
a uno fijo, tendríamos que saltarnos no de una curva a la otra, sino que de una
familia de curvas a otra familia.
El modelo de Hodgkin y Huxley

A pesar de que los gráficos son fáciles de apreciar, no siempre permiten deter-
minar los valores buscados con una exactitud satisfactoria. Por esta razón, si
los gráficos se llegan a utilizar repetidamente para encontrar cierto valor, el
error que se llega a acumular puede ser bastante grande. Desde este punto de
vista, utilizar ecuaciones puede ser una mejor solución. Por eso Hogkin y
Huxley trataron de describir matemáticamente el panorama experimental que
habían obtenido.
Tú a lo mejor has escuchado que aparte de los métodos de construcción de
gráficos utilizando ecuaciones, existen también métodos para la solución del
problema inverso—basándose en la gráfica encontrar la ecuación para la fun-
ción que representa ese gráfico. El problema se vuelve más fácil de resolver si
se conoce cuál es el tipo de función representada. En algunos casos es más fá-
cil aproximar las funciones mediante un polinomio, mientras que otros casos
para este propósito conviene emplear funciones trigonométricas. Si las funcio-
nes de aproximación han sido bien elegidas, en muchos casos esto permite de-
terminar cuál es el significado del fenómeno que se observa. Por ejemplo, si re-
presentamos las vibraciones de un motor de combustión interna en forma de
curvas sinusoidales (para esto existe un equipo especial—el analizador armóni-
co), podemos determinar las causas principales que generan la vibración (el
movimiento de qué partes generan la misma).
Hodgkin y Huxley consiguieron describir el cambio de la permeabilidad
para el potasio durante el cambio de potencial con una ecuación diferencial.
Las curvas continuas en la Fig.20 son la solución de esta ecuación, y los círcu-
los son los resultados de los experimentos con la fijación de potenciales. Pero
era claro que la curva que describe los cambios en la permeabilidad para el so-
dio tiene una forma mucho más complicada y debe ser descrita de otra manera.
No obstante, Hodgkin y Huxley intentaron describir también esas gráficas con
la ayuda de las ecuaciones del mismo tipo que las utilizadas para el caso de la
permeabilidad para el potasio. Para esto, ellos representaron el cambio en la
permeabilidad para el sodio como un producto de la multiplicación de dos fun-
ciones: una que describe el incremento (similar a la del potasio)—que recibió
el nombre de función de activación del sodio, y otra función que describe la
disminución—nombrada inactivación del sodio. Estas funciones pudieron ser
descritas mediante ecuaciones similares a las utilizadas para describir la per-
meabilidad para el potasio.
Para entender cómo Hodgkin y Huxley “construyeron” el modelo matemá-
tico del proceso de excitación tendremos que analizar un poco más a fondo qué
es lo que ocurre en la membrana. Para esto tendremos que regresar a su esque-
ma eléctrico, pero ahora podemos introducir los cambios necesarios de acuerdo
con la teoría del sodio de la excitación.
Recordemos que desde el punto de vista eléctrico la membrana es un cir-
) y dos
fuentes de alimentación (correspondientes a los flujos de sodio y de potasio)
con sus fuerzas electromotrices dirigidas en direcciones opuestas y con las re-

Estas resistencias son variables y


son determinadas por las
conductancias
(Fig.21).30
Analicemos primero la co-
rriente de potasio. Los iones de
potasio siempre pasan a través de
la membrana, en ambas direccio-
nes. Cuando el potencial en la
) es igual al poten-

30
En realidad, el esquema también contiene otra resistencia ( R ), ya que la membrana
permite el paso también para otros iones (Cl−, H+ y otros). Pero la membrana del axón
casi no les permite el paso, así que esta resistencia puede ser ignorada.
110

cial de Nernst, o potencial de equi ), la membrana se


encuentra en un equilibrio dinámico, es decir la corriente de potasio ( ) es
igual a cero. Si el potencial de la membrana se aleja del potencial de equilibrio,
surge una corriente de potasio, que puede ser calculada utilizando la ley de
Ohm: por la conductancia para potasio
por la diferencia entre el potencial de membrana y el
potencial de equilibrio
. (4.1)

De manera similar, se puede calcular la corriente del sodio:


(4.2)

En esta ecuación, es el potencial de equilibrio para el sodio, es decir, el


potencial de Nernst para ese ion, que es aproximadamente igual a +40 mV
(aproximadamente igual al overshoot).
Como podemos ver, las corrientes dependen del potencial de la membrana
de una manera bastante compleja: el potencial se encuentra entre paréntesis
y aparte es una variable de la cual dependen las conductancias .

Ahora entramos en una etapa muy importante: es necesario cerrar el circui-


to de retroalimentación y considerar cómo cambia a su vez el potencial de la
membrana en función de los cambios en la permeabilidad. Y es aquí donde sale
a relucir el personaje que estaba oculto hasta el momento—la capacitancia.

Según la famosa ecuación de un condensador es igual


a la diferencia de potenciales aplicada entre sus láminas, multiplicada por la
capacitancia del condensador. Haciendo una diferenciación de esta
ecuación obtenemos
.

Pero (la velocidad con la que cambia el valor de la carga) es precisa-


mente la corriente que llega al condensador, que en nuestro caso es igual a la
suma de las corrientes de potasio, de sodio y de la corriente externa aplicada
(considerando los signos). Entonces

(4.3)

Como resultado, obtenemos una ecuación que establece cómo cambia el


potencial de la membrana durante el cambio de la conductancia de la
membrana y con una corriente externa aplicada:

El sistema de ecuaciones completo que describe todos los cambios


interrelacionados de las características eléctricas de la membrana excitable en
el tiempo es el siguiente:

, ,

,
112

Este sistema de ecuaciones recibió el nombre de modelo de Hodgkin-Huxley, o


abreviado—modelo H-H.
Ahora si ya era posible explicar el surgimiento del PA no de manera abstracta,
sino desde un punto de vista matemático. Y aunque en 1952, por la ausencia de
computadoras, era muy difícil resolver este sistema de ecuaciones para el caso
general, Huxley calculó cómo cambia el potencial de membrana con el tiempo,
tomando como condiciones iniciales las condiciones en las que surge la excita-
se muestra
en la Fig.22. Como podemos ver, la gráfica prácticamente repite la forma del
PA, registrado en el experimento con las mismas condiciones.

Ésta era una gran victoria. Podemos imaginarnos cómo se sentían de felices
Hodgkin y Huxley una vez que obtuvieron este resultado. ¡Su modelo funcio-
naba! Cambiando las condiciones iniciales, aplicando una corriente externa (el
en la ecuación (4.3)), Hodgkin y Huxley comenzaron a modelar di-
ferentes experimentos con el nervio. Por ejemplo, si no se aplica una corriente
externa, entonces ; si a la membrana se le aplica una corriente que va
; si se realiza un expe-
rimento en condiciones de fijación de potencial, entonces debe tener un
.

Estos experimentos de modelado se hicieron muy frecuentes a partir de


1959, cuando Huxley y, de manera independiente, Cole con sus colaboradores,
empezaron a utilizar las computadoras para realizar los cálculos. Éste fue uno
de los primeros casos del uso práctico de las computadoras en la biología.
El modelo H-H permitía graficar muy bien fenómenos como el período re-
fractario, el umbral de excitación, la hiperpolarización del nervio después del
impulso, entre otros. Parecía un milagro: unos cuantos renglones de símbolos
matemáticos pudieron abarcar los resultados de un colosal número de experi-
mentos: los grandes tomos de los trabajos de du Bois-Reymond, de todos sus
seguidores y oponentes. Con esto fue comprobado que la base de todos los fe-
nómenos relacionados con la excitación reside en las propiedades de la mem-
brana: en su permeabilidad selectiva y variable para los iones de potasio y de
sodio.
¿Cuánta información cabe en cuatro ecuaciones?
El modelo matemático creó un fundamento sólido: ya era posible pronosticar
los cambios en el potencial, y si surgía alguna duda se podía revisar utilizando
el modelo. La época cuando había que memorizar una gran cantidad de datos
relacionados con la electrobiología había pasado a la historia.
¡Y qué alivio para los estudiantes! Ahora, para poder responder en el exa-
men por qué existe el período refractario, o cómo se comporta la excitación en
función de la velocidad del incremento de la corriente aplicada, solo había que
recordar la relación entre los cambios del valor de la conductancia y del poten-
cial de la membrana. Y aquellos estudiantes que no le temían a las matemáticas
incluso podían resolver problemas.
Intentemos nosotros también responder al por qué.
Otra vez el potencial de reposo
Pregunta. ¿Qué es lo que determina el potencial de reposo?
114

Respuesta. Las corrientes de potasio y de sodio siempre están orientadas de tal


manera que puedan modificar el potencial, acercándolo al potencial de equi-
librio correspondiente: el potasio “jala” el potencial hacia el valor de −80
mV y el sodio—hacia el valor de +40 mV. Por ello, en el intervalo del poten-
cial de membrana entre −80 mV hasta +40 mV estas corrientes siempre
tienen signos opuestos. El potencial de membrana en el cual estas corrientes
se compensan mutuamente es el potencial de reposo.

Problema. Se sabe que en condiciones de reposo la conductancia para el


potasio ( ) es aproximadamente 23 veces mayor que la conductancia para el
sodio ( ). ¿Cuál es el valor del PR?

Solución , la corriente del


sodio su suma algebraica es igual a
cero, es decir = 75
(mV).
Pregunta adicional (para un “10”). ¿Cuál sería el valor del PR si las conduc-
tancias para el sodio y el potasio fueran iguales?
El potencial de acción
Pregunta. ¿Por qué surge el potencial de acción? Es decir ¿por qué al final de
la estimulación (cuando ) el potencial es diferente al potencial de
equilibrio (o PR)?
Respuesta. La despolarización de la membrana produce un incremento en la
permeabilidad para el potasio y para el sodio, siendo el incremento en la
permeabilidad para el sodio mucho mayor que la misma para el potasio
(aunque por muy poco tiempo). Como resultado, la corriente de sodio, que
aumenta la despolarización, puede superar en magnitud a la corriente de
potasio, lo que provoca una “avalancha” de despolarización, es decir—el
surgimiento del PA.
Problema. A) ¿Cuál debe ser la relación entre las permeabilidades si el PR =
−75mV y el PA surge con una despolarización de 5 mV? B) Cuando el po-
tencial de membrana es igual a −50 mV, la permeabilidad para el potasio es 3
veces mayor a la del sodio. ¿Puede surgir el PA en estas condiciones?

Solución. a) , es decir
. Para que surja el PA es necesario que se cumpla la inecuación
, de donde obtene-
mos que . Entonces, la permeabilidad para el sodio debe ser no 23 ve-
ces, sino tan solo 11 veces menor a la permeabilidad para el potasio, es decir,
debe aumentar un poco más del doble.

b) y la corriente de
. Si, según las condiciones del pro-
blema, , entonces la corriente de potasio y de sodio serán iguales
y éste corresponderá a un estado de equilibrio inestable. Si el potencial de
membrana rebasa ese valor, la corriente de sodio se volverá mayor a la de
potasio, el potencial irá en aumento, hasta que la inactivación provoque la
alcance
un valor muy pequeño), y hasta que la corriente de potasio, que ya haya au-
mentado para ese momento, comience a regresar el potencial a su valor del
PR. Si el potencial de la membrana se vuelve menor a −50 mV, entonces la
corriente de potasio aumentará y el restablecimiento del equilibrio comenza-
rá inmediatamente después del estímulo, solo que primero será lento y luego
será más rápido, cuando comience la inactivación de la permeabilidad para el
sodio.
Entonces, existen dos estados cuando las corrientes de sodio y de potasio son
iguales: un estado de equilibro estable, cuando el PM=PR, y un estado de equi-
librio inestable, cuando el PM es igual al potencial-umbral. Y aunque tanto la
corriente de potasio como la de sodio cambian constantemente al cambiar el
potencial, existe un valor del potencial cuando comienza un incremento en for-
ma de avalancha por la retroalimentación positiva entre la permeabilidad de la
membrana al sodio y el potencial de membrana MP. La situación acá es muy
parecida a cuando se calienta un líquido inflamable: si calentamos hasta una
temperatura menor a la de inflamación y retiramos el calor externo, la tempera-
116

tura del líquido volverá a la temperatura ambiente. Pero si calentamos un poco


más de la temperatura umbral comenzará una reacción en cadena.
Pregunta. ¿Por qué existe un umbral de excitación, es decir por qué el PA
surge no bajo el efecto de cualquier estímulo, sino solamente cuando el
estímulo alcanza cierto valor-umbral?
La respuesta queda clara analizando la solución al problema anterior: todo
depende de la relación entre las permeabilidades a cada nivel de
despolarización.
Problema. Durante una despolarización de 5 mV y a un PR = −75 mV, la per-
meabilidad para el sodio es 1.5 veces mayor que la permeabilidad para el pota-
sio. ¿El valor del potencial-umbral es mayor o menor que −70 mV?
La solución también puede ser obtenida de la respuesta al problema anterior:
ya que el PA no surge en estas condiciones, entonces no se ha alcanzado el
umbral, es decir, el potencial-umbral es mayor que −70 mV.
La acomodación
Si estimulamos un nervio con una corriente cuya magnitud incrementa paulati-
namente, este estímulo puede provocar la generación del PA solamente si la
velocidad del incremento supera cierto valor. Si el incremento es muy lento el
nervio no se excita. Este fenómeno se llama acomodación. El modelo H-H ex-
plica el acomodamiento de la siguiente manera: con un incremento lento de la
corriente, se desarrolla la inactivación de la corriente de sodio e incrementa la
permeabilidad para el potasio, por lo que la corriente entrante de sodio no al-
canza a superar a la corriente de potasio y el PA no surge. La velocidad míni-
ma del incremento de la corriente que todavía es capaz de provocar la genera-
ción del PA puede ser determinada mediante la solución de las ecuaciones H-
H. Estos cálculos coincidieron plenamente con los datos experimentales.
El período refractario
Pregunta. ¿Por qué es imposible excitar un nervio inmediatamente después de
una estimulación (durante el período refractario absoluto)?
Respuesta. La inactivación del sodio se mantiene durante un tiempo corto des-
pués de la excitación (este proceso es relativamente lento), la permeabilidad
para el sodio es cercana a cero e insensible a los cambios del potencial, mien-
tras que la permeabilidad para el potasio es mayor que en condiciones de re-
poso. En estas condiciones cualquier despolarización provoca una corriente
de potasio más grande que la de sodio, lo que significa que potencial-umbral
es inalcanzable (el umbral es “infinito”). En otras palabras, en estas condicio-
nes el nervio no es excitable. Transcurrido cierto tiempo después de la esti-
mulación, la inactivación disminuye, aunque no hasta el nivel inicial; la per-
meabilidad para el potasio también disminuye. En estas condiciones el nervio
sí puede ser excitado, pero para ello se requiere una despolarización más
fuerte que en condiciones de reposo (este fenómeno se conoce como “perío-
do refractario relativo”).
La respuesta a la desconexión de la corriente
Como ya habíamos mencionado antes, Pfluger demostró que al retirar la co-
rriente estimulante podía surgir un pulso bajo el ánodo (es decir en la parte de
la membrana que no se despolariza, sino que, al revés, se hiperpolariza). ¿Có-
mo podemos explicar este fenómeno?

Durante la hiperpolarización de la membrana por 30 mV ocurre los si-


guiente: por una parte, desaparece por completo la inactivación, por lo que, si
despolarizamos a la membrana, la permeabilidad para el sodio va a aumentar;
por otra parte, la permeabilidad para el potasio disminuye. Por ello, cuando re-
tiramos la corriente y el PM regresa al PR, la corriente de potasio es muy pe-
queña y la de sodio es bastante grande. Como resultado, el nivel del potencial
que antes era un PR estable ahora ya será un potencial de umbral y el nervio se
excitará.
Mediante estos ejemplos podemos apreciar que el modelo H-H introdujo
orden en todo el espectro de fenómenos relacionados con el efecto excitador de
la corriente. Y eso que nosotros no tenemos aquí la oportunidad de emplear
todo “el potencial” del modelo, por ejemplo, para calcular la duración exacta
del período refractario.
El modelo predice de manera correcta la forma del segundo pulso, genera-
do durante el período refractario relativo en distintos momentos después de la
primera estimulación (este pulso tiene una magnitud menor al primero, y el in-
118

cremento del potencial es más lento). El modelo también permitió predecir de


manera correcta los cambios en la resistencia de la membrana en distintos mo-
mentos del desarrollo del PA.
De esta manera, en algunos casos el modelo H-H permite realizar un cálcu-
lo en la computadora, en vez de tener la necesidad de hacer experimentos com-
plicados.

Como podemos observar, la teoría de la membrana actual (el modelo H-H)


refleja correctamente (cuantitativamente) los detalles del proceso de excita-
ción. Esta teoría permitió describir y explicar un amplio espectro de fenóme-
nos,31 que antes eran vistos como independientes. En este sentido, la teoría de
la membrana puede ser vista como un análogo de teorías físicas como la teoría
del electromagnetismo de Maxwell, que le dio una explicación unificada a di-
ferentes fenómenos eléctricos y magnéticos.

Fijémonos en cómo cambió el sentido del término “modelo”. Si recorda-


mos, también du Bois-Reymond construyó un modelo del músculo para expli-
car el potencial de lesión basándose en el funcionamiento de pequeñas molécu-
las electromotrices. Él soldó el modelo eléctrico empleando para ello pequeños
elementos galvánicos y en este modelo circulaban corrientes reales. Mientras
que el modelo H-H existe en forma de un sistema de ecuaciones o de un pro-
grama para computadora.

Las ecuaciones H-H fueron obtenidas para el axón de calamar. Posterior-


mente fueron obtenidas ecuaciones similares para el nervio mielinizado (las
ecuaciones de Dodge-Frankerhauser, 1959), para las fibras del corazón (las
ecuaciones de Noble, 1962) y otros tejidos excitables. Estas ecuaciones dife-
rían en sus parámetros y en sus detalles (por ejemplo, aparte de las corrientes
de sodio y de potasio, se incluían corrientes de calcio y cloro), pero las ideas
principales en las que se basaban eran las mismas.

31
Lo más interesante es que, cuando se creaba el modelo, éste no incluía en las condicio-
nes iniciales propiedades del nervio como el período refractario, la acomodación, la exis-
tencia del umbral y otras. El modelo fue creado solamente utilizando un número limitado
de datos obtenidos en experimentos con la fijación de potenciales.
Entonces ¿qué sigue?
El modelo H-H permite no solamente explicar cualitativamente las característi-
cas del proceso de excitación, sino también obtener las propiedades cuantitati-
vas de los fenómenos relacionados sin la necesidad de realizar experimentos.

Entonces, ¿podemos decir que la ciencia ya lo sabe todo sobre la excitación y


que ya no hay nada por estudiar? Por supuesto que no. En realidad, en la cien-
cia cualquier conocimiento enseguida genera nuevas preguntas.
Efectivamente, el modelo H-H pudo explicar el mecanismo de la genera-
ción del PA mediante los cambios de la permeabilidad de la membrana. Pero,
en cierto sentido, esto es como explicar un fenómeno desconocido mediante
otro fenómeno desconocido, porque enseguida surge la pregunta: ¿cuál es el
mecanismo responsable del cambio de la permeabilidad de la membrana?,
¿cuál es la estructura de esa membrana tan delgada que puede distinguir iones
y es capaz de dejarlos pasar libremente, de filtrarlos, o incluso de impedirles el
paso?
Para la respuesta a esas preguntas había que comenzar los estudios a un
nivel más detallado, no a través del análisis de las propiedades de la membrana
como una estructura celular, sino a través del análisis de las propiedades de las
moléculas de las cuales consiste la membrana. Por ello, el mecanismo del
cambio de la permeabilidad comenzó a ser entendido solo con el surgimiento
de una nueva ciencia—la biología molecular.
120

Capítulo 5

De las células a las moléculas

Nosotros te mencionamos las múltiples dificultades que acompañaron la transi-


ción de los experimentos a nivel de músculos y nervios completos al nivel de
células individuales. En la segunda mitad del siglo XX, la biología realizó su
siguiente paso, pasando de los estudios a nivel celular a los estudios a nivel
molecular. La electrobiología de nuestros días también volteó su mirada hacia
el papel de moléculas individuales en la generación de biopotenciales. En este
libro nosotros nos enfocamos en los fundamentos de la electrobiología: todo lo
que los científicos sabían de los estudios de las células. Para un relato sobre la
electrobiología molecular necesitaríamos escribir otro libro. Pero es imposible
no mencionar algunos descubrimientos de la electrobiología molecular, que
nosotros presentaremos en este capítulo como información adicional a los capí-
tulos 3 y 4.
El funcionamiento de las bombas iónicas
Cuando el músculo se contrae, necesita energía para realizar este trabajo. Esto
es obvio. Uno de los indicadores de este gasto de energía es el consumo de oxí-
geno. Pero también los nervios o músculos en reposo consumen energía. Por
ejemplo, en 1932, M. Beriózina, que trabajaba en el laboratorio del biofísico
inglés Archibald Hill, demostró que en condiciones de reposo el nervio de un
cangrejo consume el 50% de todo el oxígeno que requiere durante un trabajo
forzado. Hill escribía refiriéndose a estos resultados: “Por lo tanto, sin hacer
nada y simplemente encontrándose en estado de espera para poder generar una
respuesta a un estímulo, el nervio consume cerca de la mitad de la energía que
utiliza para generar una respuesta máxima”. Ahora ya se sabe bien que esta
energía se gasta principalmente en mantener las concentraciones iónicas y el
potencial de reposo.
Recordemos que el PR se genera principalmente por la diferencia de las
concentraciones de potasio en el interior de la célula (donde su concentración
es alta) y fuera de la misma (donde su concentración es baja). Pero la membra-
na en reposo presenta también cierta permeabilidad para el sodio. Por lo tanto,
los iones de sodio deben entrar a la célula siguiendo el gradiente de su concen-
tración, mientras que los iones de potasio deben salir. Como resultado de este
proceso el PR debe disminuir. Pero esto no ocurre en los organismos vivos. En
ellos existe un mecanismo que siempre mantiene el PR y la diferencia de con-
centraciones dentro y fuera de la célula. Este mecanismo debe transportar los
iones de potasio hacia el interior de la célula, es decir a un lugar donde su con-
centración es más alta que en el exterior, y este tipo de transporte, en dirección
opuesta al gradiente de concentración, requiere de gastos de energía.
Algunos datos indirectos que sugerían la posibilidad de que la energía del
nervio en reposo se consume en el mantenimiento del PR fueron obtenidos en
los años 30, cuando Ralph Waldo Gerard (uno de los científicos que posterior-
mente inventaron los microelectrodos) demostró que el valor del PR del nervio
depende directamente de la concentración de oxígeno en el medio externo.
El estudio de los mecanismos de mantenimiento de las concentraciones
iónicas es una de las tareas más importantes de la bioenergética, una de las
ramas de la biología molecular. La bioenergética, la ciencia que estudia de
dónde obtiene la célula la energía y cómo la gasta, resultó estar muy íntima-
mente relacionada con la electrobiología (puedes consultarlo en el Capítulo
11). Pero ¿cuáles son los mecanismos moleculares que mantienen las concen-
traciones iónicas?
Nosotros ya dijimos que en la membrana externa de la célula se encuentran
integradas diferentes moléculas de proteínas. Algunas de esas moléculas fun-
cionan como bombas especiales, que “bombean” los iones de potasio, transpor-
tándolos hacia el interior de las células y retirando los iones de sodio hacia el
exterior. Estas moléculas se llaman precisamente así—bombas iónicas. Estas
proteínas, muy complejas en su estructura, representan verdaderas máquinas
moleculares que sabe hacer cosas maravillosas. Por ejemplo, se ha mostrado
que esta proteína tiene dos centros de unión, uno para un ion de potasio y el
otro—para un ion de sodio. Se conoce también “el combustible” que alimenta
a esta máquina. Esta sustancia química especial es la adenosín trifosfato, o
ATP. Se conoce también la “eficiencia energética” de este combustible: los ex-
perimentos realizados con isótopos radiactivos permitieron determinar que la
122

energía de la descomposición (o, más correctamente—de la hidrólisis) de una


molécula de ATP es suficiente para expulsar tres iones de sodio desde el inte-
rior de la célula hacia al medio externo y para trasladar dos iones de potasio
desde ese mismo medio al interior. El esquema general del funcionamiento de
esta máquina molecular está representado en la Fig.23. Al captar un ion de
potasio del medio externo y fijar un ion de sodio del medio intracelular, la
molécula cambia su forma (para designar la forma de la molécula se utiliza el
término conformación) utilizando para ello la energía de una molécula de ATP.
El ion de sodio pasa al medio exterior, donde se desprende. Lo mismo pasa con
el ion de potasio, solo que en el interior de la célula. Después la molécula ad-
quiere la conformación inicial y todo comienza desde el principio. Esta proteí-
na, descubierta en 1957 por Jens Skou, comúnmente recibe el nombre de bom-
ba sodio-potasio.

Si dejamos de suministrarle oxígeno a una célula, después de cierto tiempo se


le acaba todo el ATP y el transporte del sodio y el potasio se interrumpe. Esto
provoca que la diferencia de concentraciones de estos iones comience a dismi-
nuir (las concentraciones afuera y adentro comienzan a igualarse) y el PR co-
mience a disminuir. Si a una célula en estas condiciones le aplicamos un poco
de ATP, la bomba renovará su funcionamiento y el PR se recuperará. Es así
como se explican los experimentos de Gerard.
Nosotros sabemos que los procesos en los organismos se regulan. El corazón
de una persona corriendo late tres veces más rápido que el corazón de una per-
sona que está sentada tranquilamente. El funcionamiento del corazón es regula-
do por el sistema nervioso. Pero ¿se puede de alguna manera regular el funcio-
namiento de una molécula? ¿Cómo se puede manejar una máquina molecular?
Pues resulta que el funcionamiento de las bombas de iones es regulado por
las concentraciones de los iones dentro y fuera de la célula. Es más, la bomba
empieza a funcionar más rápido si fuera de la célula hay un exceso de iones de
potasio, o hay un exceso de iones de sodio en el interior de la célula.
La bomba sodio-potasio retira del interior de la célula más iones positivos
que los que introduce a la célula. Con esto, la bomba cambia no solo las con-
centraciones del sodio y del potasio, sino también el potencial de la membrana.
Por esta razón, la bomba sodio-potasio es una bomba electrogénica. En cada
ciclo de funcionamiento, la bomba expulsa un ion de sodio de más (tres en to-
tal), por cada dos iones de potasio que introduce, provocando de esta manera la
hiperpolarización de la membrana. Después de uno o varios PA, en el interior
de la célula se acumula cierto exceso de sodio, el cual activa el funcionamiento
de la bomba. La expulsión del sodio de la célula puede provocar una hiperpola-
rización notable: gracias a la actividad de la bomba, el PM puede superar al PR
por 20 mV. Por lo tanto, las bombas no solo modifican las concentraciones de
los iones, sino que también pueden ser una fuente de bastante importante gene-
ración de potencial.
Nosotros te presentamos de manera breve el funcionamiento de una de las
proteínas de la membrana, la bomba sodio-potasio. A continuación, te hablare-
mos sobre muchas otras proteínas de la membrana. Pero después de este primer
ejemplo podemos hacer una observación preliminar. Hasta el momento noso-
tros hemos examinado procesos que ocurren de manera similar tanto en siste-
mas físicos, como en sistemas biológicos. El PR surge de manera completa-
mente igual tanto en la membrana semipermeable del nervio, como en las
membranas semipermeables artificiales. En el ejemplo mencionado por prime-
ra vez nos topamos con un fenómeno que no se encuentra en la física, porque
es el resultado de la evolución biológica. Este ejemplo es el de una máquina
del tamaño de una sola molécula, que transporta iones a través de la membra-
124

na. El funcionamiento de esa máquina puede ser regulado tanto por la energía
suministrada, como por las condiciones de su entorno. Nosotros más de una
vez nos toparemos con otros tipos de máquinas moleculares.
¿Qué otros tipos de bombas existen?
El ion de calcio juega un papel muy importante en los más diversos procesos
dentro de la célula. En condiciones de reposo, dentro de la célula hay muy po-
cos iones libres de calcio, en comparación con el medio exterior: solamente
unos 10−7-10−8 moles. Bajo el efecto de diferentes estímulos, el calcio puede
penetrar a la célula, pero luego debe ser secuestrado rápidamente y retirado del
citoplasma. Si la alta concentración de calcio se mantiene dentro de la célula
por mucho tiempo, ésta muere. Por esta razón, las células regulan con mucho
cuidado su concentración interna de calcio. En la membrana celular (o plasmá-
tica) hay transportadores especiales de calcio que mueven todo el calcio se-
cuestrado dentro de la célula hacia su exterior. Este transportador es electro-
neutro (no genera un potencial), ya que simplemente intercambia un ion de
calcio (que tiene una carga de 2+) por dos iones de hidrógeno (cada uno con
una carga de 1+).
Las células de los músculos (o miocitos) son un caso especial. Para la con-
tracción muscular se requiere de muchos iones de calcio y estos deben ser su-
ministrados a cada una de las fibras de proteína que se extienden a lo largo de
la célula.32 El calcio debe ser suministrado de manera muy rápida, pero luego
debe ser retirado rápidamente del interior de la célula para que el músculo pue-
da relajarse. Si el calcio entrara y saliera a través de la membrana externa de la
célula, este movimiento sería extremadamente lento. Pero las células de los
músculos encontraron otra solución. En su interior hay una compleja red de tú-
bulos y cámaras constituidos por una membrana especial (Fig.24). En esas cá-
maras se almacena el calcio y ahí mismo es a donde regresa el calcio secuestra-
do después de ingresar a la célula. Toda esa membrana interna está densamente
cubierta de moléculas especiales—las bombas de calcio. La concentración de

32
La contracción muscular surge por el deslizamiento mutuo de dos tipos de fibras de
proteínas: la actina y la miosina. Las moléculas de miosina tienen asociadas moléculas
de otra proteína—la troponina, que impide el deslizamiento de la actina por la miosina,
actuando como una especie de freno. Los iones de calcio se unen a la troponina, eliminan
este freno y activan la contracción.
calcio en las cámaras de un músculo relajado es miles de veces más alta que en
otras partes de la célula. El funcionamiento de las bombas de calcio es bastante
costoso: para transportar dos iones de calcio la célula utiliza una molécula de
ATP.

En este ejemplo podemos ver que las máquinas moleculares pueden funcionar
no solo en la membrana externa de la célula, sino también en membranas
internas.
La bomba de protones
Las bombas de protones están presentes no solo en las células de los animales.
Por ejemplo, las células del hongo Neurospora (así como las células de las
plantas) tienen una bomba electrogénica que funciona con la energía del ATP y
126

que puede generar en la membrana plasmática una diferencia de potenciales de


hasta −200 mV por la extracción de los iones de hidrógeno (protones) hacia el
exterior de la célula. Por otra parte, las halobacterias tienen una bomba de pro-
tones que funciona con la energía de la luz. Y es curioso que la proteína que
compone esa bomba es muy parecida a la rodopsina de los receptores de la
retina del ojo.
Es interesante ver cómo de repente nos alejamos tanto de los nervios y de
los músculos con los que trabajaban Galvani, du Bois-Reymond y otras gene-
raciones de electrofisiólogos. De repente comenzamos a hablar sobre bacterias
y hongos, aunque pudiéramos continuar nuestro relato sobre las células de las
plantas.
En la biología es muy importante comparar entre sí diferentes objetos de
estudio, para evitar conclusiones erróneas de la generalización de las propieda-
des de un solo organismo a todo el mundo orgánico. ¿Qué nos comprueba un
estudio comparativo de esta naturaleza? Pues resulta ¡que todas las células tie-
nen un potencial de reposo! Solo que diferentes células pueden tener diferentes
mecanismos para su generación: en el nervio el PR se genera por la diferencia
de concentraciones de los iones de sodio y potasio, y en la neurospora se gene-
ra mediante la bomba de protones.
Nosotros ya sabemos que las células de los nervios y los músculos utilizan
su potencial de membrana para la transmisión de señales y para la contracción.
Pero ¿para qué necesitan el PR las células de las bacterias y los hongos?
¿Para qué necesitan el potencial de reposo las células no excitables?
Regresemos por un momento a las células animales. Porque los animales no
solo tienen nervios y músculos, sino también, por ejemplo, células del hígado,
del estómago, de la piel y otras. ¿Para qué necesitan el PR todas estas células?
Hasta el momento, cuando nos hemos referido al transporte de sustancias a
través de la membrana celular, hemos considerado principalmente al transporte
de los iones y del agua. Pero todas las células necesitan otras sustancias nutriti-
vas, por ejemplo, azúcares o aminoácidos que utilizan para la síntesis de sus
proteínas. Estas sustancias por sí solas casi no permean a través de las
membranas lipídicas. Entonces, ¿cómo es que estas sustancias llegan a entrar a
la célula? Hoy en día sabemos que estas sustancias pasan al interior de la célula
gracias a la diferencia de potenciales que existe a través de su membrana, y al
gradiente de concentraciones de sodio. Pero ¿por qué?

Fig.25 Esquema del funcionamiento de una proteína transportadora. A — los


centros activos unen un ion de sodio y una molécula de azúcar; B — la molécula da
un giro de 180° gracias a la energía del campo eléctrico existente a través de la
membrana, liberando el azúcar y el ion de sodio en el interior de la célula; C — la
molécula gira nuevamente 180° y está lista para transportar otra molécula de azúcar.

Ahora nos encontramos ante un nuevo tipo de máquinas moleculares y ante un


nuevo fenómeno—el transporte eléctrico. En la cara exterior de la membrana
estas proteínas unen la molécula que haya que transportar (por ejemplo, una
molécula de azúcar) y un ion de sodio, adquiriendo de esta manera una carga
positiva (Fig.25). El potencial eléctrico de la parte interna de la membrana
atrae al transportador y en el interior de la célula el azúcar y el sodio se des-
prenden. Luego esta proteína (conocida como cotransportador) pasa a través
de la membrana lipídica hacia afuera de la célula, en donde vuelve a unir un
ion de sodio y una molécula de azúcar. El sodio sobrante en el interior de la cé-
lula luego es removido por la bomba sodio-potasio.
Ahora podemos comprender por qué la célula crea un campo eléctrico tan
potente (la tensión de este campo eléctrico llega a centenas de miles de voltios
por centímetro): la célula con el PR puede, de manera muy efectiva, atraer ha-
cia su interior moléculas o complejos de moléculas cargados positivamente. La
molécula de azúcar por sí sola no lleva carga y el cotransportador no unirá al
ion de sodio, hasta que no una la molécula de azúcar. Podemos decir que el
transportador juega el papel de un auto, el azúcar—el papel de pasajero, y el
sodio—el papel del motor, que propulsa al auto, aunque no es el sodio en sí el
que provoca el movimiento, sino el campo eléctrico que atrae al complejo so-
dio-azúcar. Para la absorción de diferentes azúcares o aminoácidos presentes
128

en el medio, la célula tiene diferentes transportadores. Alguna bacterias tienen


transportadores que internalizan los azúcares a las células no con la ayuda de
un ion de sodio, sino de hidrógeno.
Así es como las células utilizan el potencial de su membrana para el
transporte eléctrico de diferentes sustancias.
Este tipo de transporte también puede ser utilizado para la eliminación de
algunas sustancias de la célula. Por ejemplo, nosotros mencionamos que el ex-
ceso de calcio en la célula es muy peligroso. Si por alguna razón la bomba de
calcio no puede lidiar con la eliminación del calcio del interior de la célula, se
activa un sistema especial de emergencia constituido por un transportador. Este
transportador une en el interior de la célula un ion de calcio, y en el exterior de
la célula une tres iones de sodio, expulsando al calcio de la célula e introdu-
ciendo sodio al interior. A diferencia de la bomba sodio-potasio, que utiliza la
energía del ATP, este transportador de calcio funciona como un motor eléctri-
co, utilizando el potencial de la membrana para realizar el transporte. Solo que
el funcionamiento de este transportador provoca el aumento de la concentra-
ción intracelular de sodio. No obstante, el exceso de sodio intracelular no es
tan peligroso para la célula como el exceso de calcio.
Todo lo que hemos contado aquí parece indicar que las neuronas modifica-
ron ligeramente su membrana y comenzaron a utilizar su potencial de membra-
na con un nuevo fin—transmitir señales. La maquinaria que era utilizada para
el transporte de sustancias comenzó a emplearse para la transmisión de señales.
Este tipo de evolución se conoce como “cambio de funciones”. Este concepto
fue descubierto por Charles Darwin, y posteriormente fue desarrollado por el
biólogo alemán Anton Dohrn.

¿Cómo utilizan los organismos sus bombas iónicas?


Los avances de la biología molecular muchas veces permiten entender los pro-
cesos que ocurren a nivel de células e incluso órganos. Así que el descubri-
miento de las bombas iónicas les permitió a los biólogos apreciar desde un
punto de vista completamente diferente el funcionamiento de los órganos de
los animales y los procesos celulares. A continuación, te describiremos algunos
ejemplos de este nuevo punto de vista.
Existen animales que solo toman agua de mar, por ejemplo, los albatros. Estas
aves tienen una glándulas especiales (“desalinizadoras”), las células de las cua-
les tienen bombas de iones que excretan el excedente de sal. Algunas plantas
que crecen en suelos con alta salinidad también poseen glándulas similares.
Es interesante, que también los peces de mar poseen “equipo de desaliniza-
ción”. Como su sangre es menos salada que el entorno en el que viven, la ós-
mosis hace que el agua sea “extraída” del cuerpo de los peces a través de sus
branquias. Por eso los peces tienen que tomar mucha agua, pero junto con esa
agua se introduce sal al organismo. Este exceso de sal es retirado del organis-
mo mediante transportadores iónicos localizados en las branquias.

En los peces de agua dulce y en las ranas ocurre lo contrario: el agua del
entorno busca entrar a su cuerpo, intentando diluir el medio interno. Por eso,
las bombas iónicas de las branquias de estos peces (y las de la piel de las ranas)
extraen diferentes iones del medio externo y los introducen al organismo. Pre-
cisamente la actividad eléctrica provocada por el funcionamiento de estas bom-
bas electrogénicas fue lo que registró en su tiempo du Bois-Reymond, hacien-
do experimentos con la piel de las ranas.
A la actividad de los transportadores también está vinculado el funciona-
miento de los órganos del tracto digestivo y de excreción de diferentes anima-
les. En estos órganos los transportadores participan en la absorción de los pro-
ductos de la digestión, en la excreción de los desechos del metabolismo y otras
funciones. En unas células especiales del estómago de los vertebrados se en-
cuentra presente una bomba de protones que transporta iones de hidrógeno car-
gados positivamente hacia la cavidad del estómago, provocando la salida de io-
nes negativos de cloro. De esta manera en el estómago se produce el ácido
clorhídrico necesario para la digestión.
Analicemos también el funcionamiento del intestino de los humanos y
otros vertebrados. Los alimentos en el intestino son reducidos por las enzimas
de digestión a las moléculas elementales que los componen. Este gran número
de moléculas crea una alta presión osmótica, pero para compensarla y mante-
ner una presión osmótica similar a la del plasma de la sangre, en todo el trayec-
to del intestino anterior a su interior entra mucha agua. Junto con el agua, hacia
el interior del duodeno son excretados iones de sodio y cloro. En las partes
130

posteriores del intestino delgado, el sodio se une junto a moléculas de azúcares


o aminoácidos a los transportadores, y estos últimos los trasladan al interior del
cuerpo. El transporte acoplado al sodio crea una diferencia de potenciales en el
epitelio del intestino delgado, que permite absorber los aniones de cloro. Es así
como el sodio y el cloro vuelven a la sangre, también se transportan los azúca-
res y aminoácidos. Estas sustancias son seguidas por el agua, que es absorbida
según las leyes de la ósmosis. En 24 horas el intestino humano absorbe aproxi-
madamente 10 litros de agua, una cantidad mayor al volumen de toda la sangre
que circula en el organismo. Por lo tanto, el intestino funciona gracias al “ciclo
del agua”, y de los iones de sodio y de cloro.
Como podemos ver, las bombas iónicas participan en las funciones más di-
versas de los organismos: proporcionan alimento a las células, mantienen la
homeostasis iónica (el balance iónico) del medio interno de los organismos, los
transportadores les permiten a las plantas absorber agua y sales del suelo, y a
algunos animales les permiten tomar solamente agua de mar, por mencionar al-
gunos ejemplos. La creación de una alta concentración de potasio (y del PR ge-
nerado con ello) en las células excitables es tan solo una pequeña rama de to-
dos los procesos eléctricos posibles y de gran importancia.
Los canales iónicos
La teoría de la membrana, cuya historia narramos en el capítulo 4, permitió ex-
plicar una serie de experimentos clásicos, pero también puso ante los biólogos
otra serie de preguntas: ¿por qué la membrana es permeable para los iones de
sodio y de potasio?, ¿cómo es que el potencial de la membrana cambia su per-
meabilidad?, ¿cuáles son los procesos que subyacen a las ecuaciones de Ho-
dgkin y Huxley?

Tú ya sabes que la permeabilidad de la membrana se determina principal-


mente por las proteínas que se encuentran en ellas y que forman “poros” a tra-
vés de los cuales pueden pasar pequeñas moléculas. Los poros a través de los
cuales pasan los iones de potasio fueron denominados canales iónicos de pota-
sio, y los que transportan sodio, respectivamente, canales iónicos de sodio.
Los canales iónicos son un tipo especial de moléculas. Estas moléculas
pueden distinguir entre todos los iones los “suyos” (esta propiedad se llama se-
lectividad; aunque también existen canales no selectivos, que transportan va-
rios tipos de iones) y pueden abrir o cerrar el camino a los iones bajo el efecto
del potencial (estos son los canales dependientes de voltaje; existen también
canales cuya actividad no depende del voltaje y que se abren a cualquier poten-
cial). De esta manera, los canales iónicos son otro tipo de máquinas molecula-
res igual de importantes que las bombas de iones.
A inicios de los años 70 del siglo pasado, el biofísico estadounidense Bertil
Hille estudiaba el paso de iones de diferente diámetro a través de los canales de
sodio y de potasio (en estos estudios se analizaba solo un tipo de canales a la
vez, el otro estaba bloqueado, y en la solución se encontraba solo el tipo de io-
nes estudiado en ese momento). Los iones que tenían un diámetro mayor al
diámetro crítico no pasaban a través del canal examinado. Bertil Hille estable-
ció que el diámetro del canal de potasio es aproximadamente igual a 0.3 nm, y
el del canal de sodio—un poco mayor. Basándose en experimentos similares se
llegó a la siguiente conclusión sobre los canales iónicos.

Fig.26 Esquema del funcionamiento de un canal iónico. A — canal cerrado; B —


canal abierto. B — boca del canal, P — poro del canal (una especie de conducto que
atraviesa la membrana y por el cual pasan los iones), C — compuerta con una carga
negativa que reacciona al cambio del potencial en la membrana, I — mecanismo de
inactivación, que cierra el canal al transcurrir cierto tiempo después de la apertura de
la compuerta.

Hasta la segunda mitad del siglo pasado la estructura del canal iónico era re-
presentada como un conducto de un diámetro determinado que atravesaba la
membrana (Fig.26). En uno de los extremos del conducto (cerca de la superfi-
cie de la membrana) se encuentra una “compuerta”, la posición de la cual es
controlada por el potencial de la membrana. La compuerta tiene una carga
eléctrica y por eso durante las despolarización puede permitir el paso al interior
132

del canal. En otras palabras, se consideraba que las compuertas de los canales
son un grupo de átomos con una carga eléctrica que puede cambiar de posición
cuando se aplica un campo eléctrico, abriendo el paso a los iones de potasio o
sodio. El cambio de posición de este grupo cargado en la molécula de la proteí-
na debía ser registrado en forma de una corriente eléctrica pequeña de corta du-
ración. Y efectivamente, en 1973 Richard Keynes y Eduardo Rojas pudieron
registrar esta corriente (que se conoce como “corriente de compuerta”) en los
canales de sodio. Para que las corrientes mucho más grandes de sodio no ocul-
taran esta pequeña corriente de compuerta, los canales fueron bloqueados con
tetrodotoxina.
Estructura atómica del canal de potasio KcsA,
obtenida mediante la técnicas de cristalografía
electrónica. Primer estructura atómica obtenida de un
canal iónico — el canal de potasio KcsA de la bacteria
Streptomyces lividans. A pesar de su sensibilidad al
voltaje, la estructura de este canal carece de sensores de
voltaje obvios. La estructura del canal fue obtenida en
1998 (código pdb: 1BL8), diez años después de la
publicación de la primera edición de este libro en ruso.

Mediante el estudio de los canales de sodio fue demostrado que las compuertas
y el mecanismo de inactivación se encuentran en diferentes partes del canal. La
enzima pronasa, introducida en el interior del axón de calamar, “corta” la parte
del canal que sobresale sobre la superficie la membrana. Después de este pro-
cedimiento, el canal continúa abriendo la compuerta bajo el efecto de la despo-
larización, pero ya no se inactiva. De esta manera, la predicción del modelo H-
H sobre la presencia de dos procesos independientes—la activación y la inacti-
vación—fue comprobada experimentalmente.
También fue determinada la densidad de los canales de sodio en la mem-
brana. Esto fue logrado de varias formas. Por ejemplo, Hille, quien previamen-
te había estimado el diámetro del poro de los canales de sodio y potasio,
calculó la resistencia que debe tener un canal así, obteniendo un valor de apro-
ximadamente 1010 Ohm. Conociendo el valor de la resistencia específica de la
membrana, podemos encontrar la densidad de los canales. En otro método se
determinaba el número de moléculas de tetrodotoxina (TTX), necesario para
bloquear completamente el transporte de sodio (considerando que una molécu-
la de TTX bloquea un solo canal). Los dos métodos dieron resultados muy si-
milares: tan solo unas cuantas decenas de canales por cada micrómetro cuadra-
do de membrana. Este es un número muy pequeño, si consideramos que en un
área similar se encuentran varios millones de moléculas de lípidos.
Al principio se pensaba que solo existen dos tipos de canales—los de sodio
y los de potasio, pero luego se descubrieron otros tipos de canales. Por ejem-
plo, fueron descubiertos canales permeables para calcio. Primero estos nuevos
canales fueron descubiertos en los organismos de agua dulce: en los infusorios
y los moluscos. Y esto parecía muy natural, ya que en el agua dulce casi siem-
pre hay más iones de calcio que de sodio. Pero luego los descubrieron también
en los vertebrados.
También se determinó que no todos los canales de sodio son iguales. Por
ejemplo, en las células del corazón de los embriones de los mamíferos hay ca-
nales de sodio que no se bloquean por la tetrodotoxina. Con el crecimiento de
los organismos esos canales se van reemplazando paulatinamente por canales

Fig.27 Método de registro de la actividad de un canal único. A — la micropipeta


está adherida a la superficie de la célula, succionando fuertemente un pequeño
fragmento de la membrana con unos pocos canales. B — cambios en la
conductancia de un canal individual. De manera probabilística, el canal pasa del
estado cerrado al estado abierto y nuevamente al cerrado. La probabilidad de que el
canal se encuentre en uno de esos estados, así como el tiempo de residencia en esos
estados dependen del potencial de la membrana. Nótese que incluso en el estado
abierto las compuertas del canal a veces se cierran.
134

sensibles a esa toxina. También hay varios tipos de canales de potasio. Luego
fueron descubiertos los canales de cloro y otros más. Finalmente fueron descu-
biertos casi tantos canales como partículas elementales.
El desarrollo de los equipos de investigación (la aparición de amplificado-
res de alta resistencia de entrada y de bajo ruido) permitió el estudio de las pro-
piedades de canales individuales. Para ello, el microelectrodo ya no se inserta-
ba en la membrana, sino que se pegaba a la misma (Fig.27). Con este tipo de
estudios se podía, por ejemplo, responder a la pregunta ¿en qué estado se pue-
de encontrar un canal: “abierto”, “cerrado” u algún otro? En estos estudios fue
determinado que el comportamiento de los canales unitarios es probabilístico.
Es decir, a cada nivel de potencial, existe cierta probabilidad de que el canal se
encuentre en estado abierto por cierto tiempo, o cerrado. A otro potencial esta
probabilidad es diferente.

Ahora ya podemos examinar la siguiente cuestión: ¿por qué cuando aplica-


mos un pulso de voltaje la permeabilidad para el potasio aumenta con el tiem-
po? Si todos los canales fueran iguales y se controlaran de manera igual por el
campo eléctrico aplicado, no se observaría una variación paulatina de la per-
meabilidad de la membrana: ésta cambiaría de un salto, y todos los procesos de
excitación transcurrirían de manera muy diferente. El cambio paulatino de la
permeabilidad puede ser explicado mediante la existencia en la membrana de
diferentes canales con distinta sensibilidad al PM, o mediante las característi-
cas probabilísticas del funcionamiento de los canales. Como pudimos ver, fue
esta última característica la que encontraron los investigadores.
Entonces, las ecuaciones de Hodgkin y Huxley son ecuaciones macroscó-
picas, como por ejemplo las ecuaciones de Mendeleev-Clayperon. Y así como
detrás de las ecuaciones de estado del gas ideal se encuentran la teoría de la ci-
nética molecular y la física estadística, detrás de las ecuaciones H-H está la fí-
sica estadística de los canales.
Otras áreas actuales de la biología molecular son los estudios de las máqui-
nas moleculares individuales, de sus partes, y de sus interacciones con reacti-
vos y con el citoesqueleto de la célula, de las funciones de los canales, de su
localización y de su reconstrucción tridimensional. Finalmente, otra área de es-
tudios es la genética de los canales iónicos.
Antes se consideraba que un canal iónico es una máquina estable, que se
incorpora a la membrana y puede funcionar por mucho tiempo (inclusive, du-
rante toda la vida). Pero los datos con los que contamos hoy en día nos dicen
que los canales de las neuronas funcionan solamente durante un día, luego son
destruidos y reemplazados por canales nuevos.
Las proteínas de los canales, al igual que otras proteínas, son producidas
por máquinas moleculares especiales—los ribosomas. A través de moléculas
especiales llamadas ácidos ribonucleicos mensajeros (mARN, o mRNA, por
sus siglas en inglés), los ribosomas reciben la “orden” sobre qué tipo de proteí-
na hay que producir. El biólogo inglés Ricardo Miledi y sus colaboradores rea-
lizaron en 1982 un experimento muy elegante. Ellos extrajeron de diferentes
tejidos (músculo esquelético de gato y cerebro de pollo) el mARN (incluyendo
las moléculas que codificaban las proteínas de los canales) e introdujeron esas
moléculas a un ovocito (un óvulo no fecundado de la rana africana Xenopus
laevi). Por los general esos óvulos no son excitables, es decir, no reaccionan a
la despolarización mediante un PA. Pero los óvulos inyectados con el mARN
adquirieron la excitabilidad y comenzaron a responder a la estimulación con un
PA similar al observado en las neuronas. Esto significa que, basándose en el
mARN de las neuronas, los ribosomas de los óvulos produjeron las proteínas
de los canales iónicos, que se incorporaron a la membrana del ovocito y fun-
cionaban normalmente.
También fue descubierto que en el cuerpo de las motoneuronas de los ver-
tebrados (las neuronas que controlan la contracción de los músculos) se en-
cuentran principalmente canales de sodio, mientras que en las dendritas se en-
cuentran principalmente canales permeables para calcio. Una distribución simi-
lar de canales se encontró en las células de Purkinje—unas neuronas grandes
del cerebelo. Esto significa que las proteínas de los canales que se producen
por la célula no se incorporan de manera desordenada a la membrana de las
neuronas, sino que los diferentes tipos de canales se transportan a lugares espe-
cíficos.
Hasta ahora hemos hablado sobre canales que se abren y cierran bajo el
efecto del campo eléctrico en la membrana. Pero también existen canales de un
tipo completamente diferente, que son regulados por sustancias químicas. Por
136

ejemplo, los canales de la membrana postsináptica se abren bajo el efecto de un


ligando (estos son los canales de las sinapsis, es decir del contacto entre dos
neuronas, y el ligando es una sustancia química que libera una célula y que ac-
túa sobre los canales de otra célula; hablaremos sobre éstos en el Capítulo 7).
Ahora ya sabemos que también son activados por ligandos otros canales ióni-
cos, que no están relacionados con las sinapsis, y que pueden reaccionar no so-
lamente a las sustancias que vienen del exterior, sino también a las sustancias
que se producen en el interior de las células o se acumulan dentro de ellas.
Por ejemplo, existen canales permeables para calcio que no tienen inactiva-
ción. Durante la despolarización de la membrana, el calcio fluye a través de es-
tos canales sin disminuir. Si la concentración de calcio en la célula alcanza
cierto nivel, el canal se cierra. Estos canales también se pueden cerrar con la
ayuda de un campo eléctrico, mediante la hiperpolarización de la membrana.
Se han encontrado también canales de potasio que son regulados por la
concentración de calcio.
Otros canales de calcio son sensibles a la concentración de una sustancia
especial—el cAMP (el adenosín monofosfato cíclico). Esta sustancia controla
toda una serie de procesos intracelulares. (Por ejemplo, muchas hormonas, la
adrenalina en particular actúan mediante el cambio de la concentración de
cAMP en las células.) El incremento de la concentración de cAMP provoca en
algunas neuronas la apertura de canales y la despolarización de la membrana
celular.
Hoy en día contamos con muchas evidencias de que existen varios tipos de
canales (y de que estos se encuentran presentes en diferentes células en distin-
tas combinaciones, en función del tipo de célula), de que los canales son es-
tructuras dinámicas (son producidos, destruidos y transportados hacia diferen-
tes partes de la célula) y, finalmente, de que existen muchos mecanismos que
regulan el funcionamiento de los canales: los campos eléctricos de la membra-
nas, así como sustancias químicas.
En cada célula hay genes que codifican las proteínas de los canales, pero
en unas células estos genes se encuentran activos, mientras que en otras están
silenciados. Así es como los procesos eléctricos de las células se vinculan al
funcionamiento de su aparato genético. La célula no solo puede regular el fun-
cionamiento de los canales desde adentro (abrirlos o cerrarlos), sino que en
algunos casos también puede modificar los canales, cambiar sus propiedades
mediante reacciones bioquímicas. Este tipo de procesos ocurre, por ejemplo,
durante el proceso de aprendizaje (como veremos más adelante, en el Capítulo
11).
138

Capítulo 6

La transmisión de las señales en los organismos. El telégrafo vivo

Tú te fijaste en el título de este capítulo y pasaste tus ojos a la siguiente ora-


ción. En ese momento, desde el ojo hacia el cerebro y desde el cerebro hacia
los músculos del ojo fue transmitida una gran cantidad de señales. Todos sabe-
mos que estas señales se transmiten por los nervios. Hasta podemos decir que
los nervios son los cables que forman las líneas de transmisión en el organis-
mo, a través de las cuales se transmiten las señales. Pero en realidad la analogía
entre un nervio y, por ejemplo, una línea de teléfono, no siempre es válida.

Fig.28 Representación esquemática de un nervio. n — neuronas, a — axones o


filamentos nerviosos, un haz de estos filamentos se llama nervio.

Primero, tenemos que precisar qué es un nervio. Si hablamos en términos es-


trictos, un nervio es un haz de filamentos nerviosos, cada uno de los cuales co-
rresponde al axón de una neurona (Fig.28), de tal manera que la transmisión de
la señal está a cargo no de un nervio entero, sino de un solo filamento.
¿Cómo funciona este “cable”? Esta pregunta puede parecer un poco extra-
ña: si es un cable, pues ha de funcionar como un cable: si cambias la posición
del interruptor, en el otro extremo del cable debe prenderse la luz.
Efectivamente, a través de los nervios se transmiten señales eléctricas. Y,
efectivamente, en el nervio al igual que en un cable eléctrico, hay un material
conductor (el protoplasma del nervio) y un material aislante (la membrana).
Pero en un cable “convencional” cada parte siempre tiene el mismo papel: el
material conductor interno siempre actúa como conductor, y el material aislan-
te siempre aísla al conductor del medio exterior y por ello éste puede ser igno-
rado. Y, por supuesto, la fuente de alimentación se encuentra en algún lugar
fuera del cable (al igual que el mecanismo-efector): la señal se transmite por el
cable sin cambiar su forma, “tal como es”. Así que el esquema eléctrico de un
equipo sencillo para la transmisión eléctrica de señales es muy simple (Fig.29).

Fig.29 Esquema eléctrico de la transmisión de señales. El sistema técnico (A) está


compuesto de la fuente de poder E, los conductores a, el mecanismo efector b y la
llave c. En el esquema eléctrico equivalente de un nervio (B) se muestran la resisten-
cia longitudinal del axoplasma ri, la capacitancia de la membrana C, la resistencia de
la membrana rm y la fuente de alimentación Em.
Ahora examinemos la estructura del nervio. Tomemos el axón de calamar
como ejemplo. Para empezar, el material conductor, es decir el protoplasma del
nervio, tiene una resistencia eléctrica bastante alta, aunque su papel supuesta-
mente consiste en la transmisión de la señal eléctrica. En segunda, el papel del
contacto que cierra el circuito lo juega el medio externo, cuya conductancia
eléctrica es mayor a la del protoplasma del nervio. En tercera, la membrana no
puede ser considerada como un aislante, ya que es muy delgada, de un grosor
de tan solo dos moléculas, y está atravesada por canales permeables a los io-
nes, es decir, aísla bastante mal el “cable” interior del medio que lo rodea. En
140

cuarta, el papel de la membrana en la transmisión de la señal no solo consiste


en el aislamiento del protoplasma del medio externo.
Entonces, como vemos, el esquema eléctrico de la señalización “viva” es
mucho más complicado.
La teoría de las “corrientes locales”
Como te acordarás, cada pequeña parte de la membrana de la célula no excita-
ble es una combinación de un condensador ( ) y una fuente de fuerza electro-
motriz ( ) (Fig.29B). Todos esos fragmentos están conectados entre sí: los
polos negativos están conectados a través del protoplasma y los positivos—a
través del medio exterior. Y como la fuerza electromotriz de todos los elemen-
tos es igual, tanto fuera como dentro del nervio no corre ningún tipo de co-
rrientes. Es precisamente por ello que el potencial que se establece a través de
la membrana se conoce como potencial de reposo.
Este estado es estable: si por alguna razón el potencial de alguno de los
condensadores cambia, por ejemplo, disminuye, los condensadores cercanos le
entregarán un poco de su carga, comenzarán a funcionar las fuentes de electri-
cidad, comenzarán a correr corrientes a través de las resistencias y de una ma-
nera rápida se restablecerá la condición anterior y nuevamente se reestablecerá
la tranquilidad: las células no excitables son precisamente como su nombre lo
dice—no excitables.
Pero el esquema eléctrico de la membrana de las células excitables es más
complejo. En cada fragmento de la membrana se añade un elemento “excita-
en la Fig.30A)—una fuente de electricidad, que conectada de mane-
ra opuesta a la fuente de electricidad que crea y mantiene el PR. Nosotros no
nos vamos a adentrar en los detalles del funcionamiento de esa fuente “excita-
dora” (a eso le dedicamos una parte en el capítulo anterior), sino que la vamos
a considerar como una parte del circuito que, cuando el potencial de la mem-
brana alcanza cierto valor-umbral, cambia la carga del condensador por una del
signo opuesto y enseguida se apaga.
Veamos el esquema equivalente del nervio, mostrado en la Fig.30. La esti-
mulación del nervio, es decir, la disminución del PM hasta el valor-umbral,
Fig.30 Esquemas que explican el mecanismo de propagación de la excitación en
el nervio. A — esquema eléctrico equivalente del filamento nervioso, el fragmento
1 está excitado, el condensador C1 cambia el signo de su carga y en el circuito fluye
una corriente desde los condensadores C2 y C3 al condensador C1 (la intensidad de la
corriente se muestra con el grosor de las flechas), en el siguiente momento de
tiempo, el condensador C2 cambiará el signo de su carga; B — esquema para ilustrar
el concepto de las corrientes locales de Hermann; C — la propagación del impulso
está relacionada a cambios en la conductancia de la membrana: el frente del PA es
determinado por un flujo entrante de iones de Na+, mientras que la fase tardía
depende de la salida de los iones de K+ del filamento nervioso.

corresponde en nuestro esquema a la descarga del condensador (no necesa-


, que no
142

solamente descarga al condensador, sino que lo carga de manera opuesta,


creando un potencial negativo en el lado exterior y un potencial positivo en el
interior. Esto provoca la descarga de los condensadores más cercanos (el con-
), que intentan, donando su carga, restablecer las condiciones ini-
ciales.

Pero si ese condensador se descarga hasta el potencial-umbral, se pren-


. En este caso, el condensador no
solo se descarga para “donar” su carga, sino que se carga de manera opuesta
provocando que sea el siguiente condensador el que comience a descargar-
se para que el potencial regrese a las condiciones de reposo. Esta descarga a su
vez activa el mecanismo de excitación . Así se propaga la ola del impulso
nervioso: la excitación en el fragmento 1 produce una corriente entre los frag-
mentos 1 y 2, disminuye el potencial del fragmento 2 hasta el umbral, provo-
cando la excitación de este fragmento que también produce una corriente, y así
sucesivamente.
Este esquema eléctrico ya funciona como un nervio de verdad: el PA que
surge por la estimulación de cualquier parte del nervio, bajo ciertas condicio-
nes se propagará por el nervio. Es decir, la señal será propagada a lo largo del
cable.

En general, este mecanismo, fue bien comprendido por Hermann desde


1879—mucho antes de que se conociera el esquema eléctrico de la membrana
e incluso antes de que apareciera la teoría de la membrana. La idea de Her-
mann consistía en que las corrientes que surgen en cierta parte del nervio exci-
tado pueden jugar el papel de estímulos para las partes colindantes del mismo
nervio. De esta manera, la excitación se propaga a un área nueva, que a su vez
excita otra parte del nervio que todavía no está excitada.
Las corrientes que aparecen cerca del área excitada fueron llamadas por
Hermann “corrientes locales”, por eso también su teoría recibió el mismo nom-
bre. Actualmente la teoría de la propagación de la excitación mediante las co-
rrientes locales de Hermann ya es aceptada por todos los científicos y se en-
cuentra en el fundamento de la electrobiología, al igual que la teoría de la
membrana de Bernstein.
Del panorama de fenómenos que presentamos se puede deducir que la ve-
locidad de propagación de la excitación no debe ser igual a la velocidad de la
propagación del campo electromagnético. Tiene que pasar cierto tiempo deter-
minado para que el potencial en el condensador disminuya hasta el nivel
umbral, luego debe transcurrir cierto tiempo durante el cual ocurre el proceso
y durante ese tiempo el impulso recorrerá la
distancia existente entre los elementos . Ahora ya podemos com-
prender el resultado de Helmholtz, de que la velocidad de propagación del im-
pulso nervioso es mucho menor a la velocidad de la luz.
El cable vivo—el nervio—no es un simple conductor pasivo de las señales:
una vez que recibe la señal (el estímulo), el nervio primero responde con un
impulso de respuesta (el PA), y luego ese impulso comienza a desplazarse a lo
largo del nervio (Fig.30C).
Este tipo de transmisión es bastante común en los equipos técnicos, por
ejemplo, en la retransmisión de los canales de televisión mediante los satélites
de comunicación. Y en tiempos muy lejanos el mismo principio de retransmi-
sión de la señal se empleaba para pasar una alerta utilizando para ello fogatas.
De esta manera, durante la propagación de la señal por el nervio tienen lu-
gar dos procesos que interactúan entre sí. El primer proceso es la excitación, es
decir, la generación del PA provocado por las características propias de la
membrana de las células excitables—las llamadas propiedades eléctricas acti-
vas. En cambio, el segundo proceso—la transmisión de la señal a lo largo del
nervio—es puramente eléctrico y desde ese punto de vista el nervio es comple-
tamente equivalente a un circuito. Las propiedades por las cuales el nervio se
comporta como un circuito eléctrico se llaman propiedades eléctricas pasivas.
La naturaleza eléctrica de la señal que se transmite por el nervio fue de-
mostrada por un experimento muy bonito que diseñó y realizó Hodgkin en
1936.
144

El esquema del experimento está presentado en la Fig.31. En una parte del


nervio, el medio conductivo externo era sustituido por un aislante (en esta parte

Fig.31 El experimento de Hodgkin que comprueba la naturaleza eléctrica de la


transmisión del impulso nervioso. A — el aceite impide el paso a las corrientes lo-
cales, por lo que la propagación de la excitación se bloquea (analiza el esquema
equivalente); B — el conductor cierra el circuito permitiendo el paso a las corrientes
locales y la excitación se propaga a lo largo del nervio (analiza el esquema equiva-
lente).
la solución salina era sustituida por aceite) y la señal no podía pasar a través de
esa parte del nervio. La excitación provocada llegaba hasta esa zona y se extin-
guía (Fig.31A).
No obstante, el resultado de ese experimento podía ser interpretado de dis-
tintas maneras, por ejemplo, se podía pensar que el aceite cambia las condicio-
nes de la difusión en el medio externo (existían hipótesis que explicaban la
transmisión de la señal a lo largo del nervio mediante la difusión de sustan-
cias).
Estas interpretaciones son refutadas por la segunda parte del experimento
(Fig.31B): si la solución salina en la primera y en la tercera cámara era conec-
tada con un simple alambre de cobre, el impulso después de desaparecer en el
segmento BC vuelve a surgir en el último segmento CD. Con esto quedaba cla-
ro que el alambre juega el papel de un conductor de electricidad que cierra el
circuito eléctrico.
Sobre la seguridad de la transmisión
Enseguida surge la pregunta: si el nervio puede transmitir la señal mediante un
mecanismo meramente eléctrico, entonces ¿para qué son necesarios los retrans-
misores intermedios? Debería ser más sencillo colocar en el comienzo del ner-
vio un “transmisor”, y en el otro extremo—un “receptor”, ¿no? Pero ¿qué sig-
nifica “sencillo” en referencia a la estructura del nervio? Cuando las líneas de
comunicación son diseñadas por especialistas, éstos, efectivamente, intentan
diseñarlas de la manera más racional: el diseño es elegido teniendo en cuenta
distintos factores. Pero en el caso de la naturaleza este diseñador no se conoce.
Por otro lado, en la naturaleza hay un control de calidad muy estricto—la
selección natural, que elimina sin piedad todo lo que no sirve y no ayuda a la
supervivencia. Por eso, si en el organismo se utiliza el mecanismo de retrans-
misión para la transmisión de señales, esto debería tener algún sentido práctico
y debería ofrecer beneficios muy importantes. El estudio de cómo son utiliza-
das en los organismos las combinaciones de la transmisión eléctrica (pasiva) de
señales, nos permitirá conocer mejor la conveniencia de las estructuras de los
nervios que funcionan en diferentes condiciones.
146

Regresemos al experimento de Hodgkin con las tres cámaras. La tercera


parte del experimento consistía en que Hodgkin cambiaba la distancia BC para
determinar la distancia a la que puede ser transmitida la señal de excitación a lo
largo del nervio, sin el proceso de retransmisión. Hodgkin determinó que esta
distancia es bastante pequeña en comparación con el largo total del nervio.
Este resultado se hace más obvio, si recordamos que el nervio impone límites
muy rígidos sobre la magnitud de la señal: para provocar una excitación, el po-
tencial de la membrana debe alcanzar un valor-umbral. Si el largo del segmen-
to BC es muy grande, el cambio del potencial de membrana al final del seg-
mento será menor al valor umbral, porque la mayor parte del potencial de la
membrana que existe en el punto B recae sobre la resistencia del protoplasma
del segmento BC.
De esta manera, podemos entender por qué en el nervio la frecuencia de las
“estaciones de retransmisión” (los canales iónicos) es bastante alta. Esta alta
incidencia de los canales en la membrana proporciona la seguridad necesaria
para hacer robusta la transmisión: si una parte de estas estaciones se
descompone, la señal puede ser retransmitida de todas maneras. Esto fue de-
mostrado ya hace bastante tiempo: en el año 1899 el fisiólogo ruso Bronislav
Verigo demostró que con la ayuda de algunos fármacos se puede desensibilizar
una parte del nervio, pero el impulso nervioso es capaz de “saltarse” ese frag-
mento insensible. Esta robustez del proceso de transmisión es respaldada por el
hecho de que la magnitud del potencial de acción es varias veces mayor al
potencial-umbral (el valor suficiente para que se activen los canales-re-
transmisores). (Por cierto, la relación se llama así mismo: coeficiente de
seguridad.) De esta manera, nuestra línea de transmisión está construida con
una gran “reserva de resistencia” y esto es sensato: la seguridad de la transmi-
sión para un organismo es una condición esencial para la supervivencia: la se-
ñalización debe seguir funcionando incluso cuando se descompongan algunos
retransmisores.
Pero para mantener en funcionamiento este tipo de comunicación, el orga-
nismo debe pagar un costo bastante alto: como ya sabemos, durante la excita-
ción de la membrana se gasta energía. ¿No será muy cara la seguridad de la
transmisión para el organismo? ¿Por qué los nervios no pueden transmitir las
señales de igual manera a como ocurre en las líneas eléctricas?
La teoría del cable
Para responder a la pregunta con la que concluimos el apartado anterior, noso-
tros deberemos adentrarnos un poco en la electrotécnica, saliéndonos un poco
del marco de los conceptos que se estudian en la escuela. En realidad, el esque-
ma mostrado en la Fig.29A puede ser utilizado solamente porque la electrotéc-
nica humana tuvo mucha suerte: el aire que rodea los cables es un conductor de
electricidad muy malo. Y por eso, si nosotros examinamos la transmisión de
las señales por los cables rodeados de aire, incluso si los cables no tienen aisla-
miento, podemos decir que la fuga de electricidad por el aire es prácticamente
nula. La caída del potencial en un cable solamente se debe a su resistencia.
Pero nuestros “cables”, los nervios, se encuentran en condiciones totalmente
diferentes: como tú ya sabes los nervios están rodeados de una solución salina
que conduce muy bien la electricidad. Imaginemos que el aire conduce la co-
rriente: en las tomas de corriente enseguida surgirían cortos circuitos, habría
que aislar muy bien todos los cables en las torres de alta tensión, un simple in-
terruptor para apagar la luz se convertiría en un gran reto técnico. Así que, para
poder comprobar la necesidad de los gastos energéticos para la retransmisión,
nosotros deberíamos primero aprender a hacer cálculos con los circuitos que se
encuentran en condiciones especiales.
Para suerte de la electrobiología, las personas ya se habían topado con la
situación cuando el cable-transmisor pasa por una solución salina—a través del
agua de mar común. Esto sucedió en los años 50 del siglo XIX, cuando se in-
tentó unir mediante un cable telegráfico los continentes de Europa y América.
Previo a esa ocasión, las líneas telegráficas sumergidas habían sido tendidas
únicamente en la India y por el fondo del estrecho de La Mancha. Estas dos
primeras líneas de comunicación no eran muy largas, por lo que no presentaron
grandes dificultades técnicas. Simplemente se tomó un cable más grueso con
un aislante más grueso y esa fue toda la solución.
Cuando el 7 de agosto de 1857 en las costas de Irlanda comenzaron a su-
mergir el cable telegráfico transatlántico, este se quebró el mismo día. Los in-
genieros elevaron el cable, soldaron las puntas y continuaron con su trabajo.
148

Durante cuatro días todo permaneció en calma, pero el 11 de agosto el cable se


volvió a quebrar. El barco que realizaba la maniobra de ingeniería tuvo que re-
gresar a Irlanda y sacar a la tierra las puntas del cable que se había partido a
una gran profundidad. Pero cuando por fin el cable pudo ser tendido hasta las
orillas del continente americano y se pudo recibir los primeros telegramas tran-
satlánticos, la alegría no duró mucho tiempo: en unos pocos días la señal que
se transmitía a través del océano se fue debilitando, hasta que por fin desapare-
ció por completo.
Era evidente que sería imposible resolver un problema así al azar. El pro-
blema del balance entre la resistencia del cable y la seguridad del aislamiento
requería de un fundamento teórico que permitiera calcular los parámetros del
cable (el diámetro del conductor, el grosor del material aislante), de tal manera
que el cable fuese, por una parte, bastante resistente, y que por otra parte ase-
gurase la transmisión confiable a largas distancias.
Este tipo de teoría fue desarrollada por el famoso científico inglés William
Thomson. Fue precisamente él quien propuso la escala de temperatura los gra-
dos de la cual fueron llamados Kelvin—también en su honor, porque por sus
trabajos científicos William Thomson recibió el título de Lord de Kelvin (este
nombre Thomson se lo inventó para perpetuar el nombre de un pequeño ria-
chuelo que corre en su amada Escocia).
En el año 1865 fue retomado el intento de tender un cable a través del
océano Atlántico. En esa oportunidad, en el vapor más grande de aquellos
tiempos entre 120 ingenieros y técnicos se encontraba también William Thom-
son, que participaba activamente en la “introducción a la vida” de su teoría. El
4 de agosto de 1866 por fin fue establecida una comunicación confiable entre
los dos continentes.
¿Cómo es que funciona el cable—el telegráfico, o el vivo (es decir, el ner-
vio)?
Especifiquemos primero a qué es a lo que nosotros denominamos cable.
Cualquier cable puede ser representado como un conductor que está aislado
por una capa de material aislante y que se encuentra sumergido en un medio
conductivo. Cuando el transmisor emite una señal, crea una diferencia de po-
tenciales entre el conductor y el medio que lo rodea. Esto origina una corriente
que se propaga por el cable.
También tenemos que precisar a qué nos referimos cuando decimos que
“una corriente se propaga por el cable”. Porque la percepción común es que la
corriente fluye a través del conductor, mientras que para un cable es muy im-
portante que su aislamiento no es ideal, y por eso la corriente no solo se propa-
ga por el conductor, sino que atraviesa el material aislante y llega al medio ex-
terno. De esta manera, el cable puede ser representado esquemáticamente como
un conductor que se conecta al medio externo mediante conexiones muy fre-
cuentes (Fig.32).

Fig.32 Esquema del circuito de un cable [o de un nervio con una membrana no


excitable]: A — la resistencia de un fragmento del conductor (o del axoplasma) es
.
La resistencia del medio externo es relativamente baja tanto para un cable que se
encuentra en el fondo oceánico, como para un nervio colocado en agua de mar o que
se encuentra en el interior del organismo, por lo que podemos descartarla. B —
Esquema utilizado para derivar la ecuación de la resistencia de un cable infinito (en
el texto).

Un sistema así se distingue de los sistemas a los que estamos acostumbrados,


porque el circuito de un cable siempre es un circuito cerrado, independiente-
mente de lo que se encuentre en su otro extremo. Si le aplicamos un potencial
a uno de los extremos del cable, la corriente fluirá por el cable incluso si su
otro extremo está aislado del medio exterior (o incluso cuando el cable no ten-
150

ga otro extremo, es decir, se considere como infinito). Acá obtenemos un


resultado muy impresionante: un cable infinito tiene una resistencia finita.
Aunque si nos adentramos en detalles, esto ya no parece tan extraño: mien-
tras más largo es el fragmento del cable, mayor es la resistencia del conductor,
pero menor es la resistencia de la membrana. Como resultado, obtenemos que
con el aumento del largo del cable su resistencia aumenta, pero no de manera
infinita, sino que acercándose a un valor finito . Y por muy extraño que pa-
rezca, fue precisamente el estudio del cable infinito lo que permitió obtener las
características eléctricas principales.
La resistencia de un cable infinito
Veamos, por ejemplo, cuál es el valor de la resistencia de un cable infinito, es
decir, la resistencia de un circuito parecido al de la Fig.32, pero con un número
infinito de segmentos. Denominemos esta resistencia desconocida como .
Cada sección del cable puede ser reemplazada por dos fragmentos de conduc-
tores (ve la Fig.32B). La resistencia del segmento del conductor se calcula me-

, donde

—el radio del


conductor. La resistencia del fragmento del aislamiento correspondiente se cal-
cula empleando la misma ecuación, solo que el largo del conductor es este
es el
. Entonces, la resistencia del
33
aislante es igual a . Las ecuaciones son respecti-

vamente las resistencias del conductor del aislante (su significado es


entendible: las resistencias de un fragmento del conductor y del recubrimiento
(

33
La resistencia específica Rm de la que hablamos en el Capítulo 3, es igual al producto
de la resistencia específica del material de la membrana multiplicada por su grosor:
Rm = ρ mδ .
dividida , porque el área de la capa aislante es proporcional a su
largo), en cambio si queremos obtener la resistencia de un fragmento del
, esta será igual a .

Si le restamos al cable un segmento (marcado en la Fig.32A), ya que el ca-


ble es infinito, su remanente seguirá siendo igual a la resistencia del cable infi-
. Entonces el cable completo
puede ser representado como un circuito bastante sencillo.
Este circuito consiste de dos líneas conectadas en paralelo (Fig.32B): la re-
sistencia de una de las líneas es igual a la resistencia del fragmento de la capa
aislante , mientras que la resistencia de la otra línea es igual a la suma

. La resistencia total de
este circuito, también igual a , se calcula de una manera similar a como se
calcula la resistencia total de un circuito constituido por resistencias conectadas
en paralelo, según la siguiente ecuación

Transformando esta ecuación, obtenemos

. En esta ecuación, el largo se puede hacer lo más


.
Entonces obtenemos que , de donde finalmente obtenemos que

(6.1)

Nota: En nuestra aproximación el significado de las frases “podemos ignorar” y


“lo más pequeño posible” se puede hacer más estricto, si utilizamos los términos y
152

el aparato del cálculo diferencial. En nuestro caso no utilizamos esta herramienta,


porque entre nuestros objetivos no estaba comprobar que la resistencia del cable
infinito es finita, nosotros solo queríamos demostrar cómo es que se puede calcu-
lar. Por ello, acá queremos presentar dos técnicas muy similares que pueden ser de
cierta utilidad práctica.

El primer ejemplo es la conversión de una fracción decimal periódica en una


fracción común. Por ejemplo, tenemos la fracción 0.(57), es decir 0.57575757…
. Entonces, es bastante obvio que

, de don-
. Como podemos ver, acá también “la infinidad” de la frac-
ción es más bien un beneficio: por ejemplo, la fracción común para el número
0.575757 (sin periodicidad), es incluso un poco más complicada: 575 757/1 000
000.

En el segundo ejemplo buscaremos la ecuación de la suma para una progre-


sión geométrica infinita:

. Finalmente

El sentido físico de la ecuación (6.1) es el siguiente: si a un cable infinito le


aplicamos un potencial que pue-
de ser determinada por la ley de Ohm:

A primera vista, ocurre lo mismo que en cualquier timbre eléctrico, en el cual


la corriente también es . Pero ¡un momento! ¿De qué corriente esta-
mos hablando? En el timbre y en cualquier punto del circuito del timbre la co-
rriente es la misma. Pero para el cable es muy importante que el recubrimiento
aislante no es ideal, por lo que, por muy lamentable que sea esto, la corriente
saldrá por todos los fragmentos del material aislante, y ésta es la principal dife-
rencia que distingue a un cable de un alambre. Nos parece bastante obvio que
la corriente puede ser registrada solamente al inicio del cable, y
luego la corriente que corre por el conductor irá disminuyendo.
La señal se debilita y se debilita cada vez más
Para poder determinar cómo se irá debilitando la corriente a la vez que se pro-
paga, examinemos de nuevo un pequeño fragmento del cable, es decir, uno de
los “eslabones” de nuestro circuito. La magnitud de la corriente disminuye por-
que en cada punto del cable ésta se va “ramificando”—una parte de la corriente
se escapa a través de la capa aislante, y la otra continúa fluyendo a lo largo del
cable infinito. En estas condiciones, las corrientes que pasan por las “ramas”,
tal y como ocurre en el caso de la conexión paralela, son inversamente propor-

cionales a las resistencias, es decir . Esta ecuación implica que en

cada punto del cable la fuga representa una fracción de la corriente que pasa a
través de ese punto. Entonces, podemos decir que la corriente que fluye a tra-

se pierde una misma fracción de la corriente.


Intentemos representar la debilitación de la corriente mediante una expre-
sión matemática. Tomemos como ejemplo el caso de un fragmento de cable
a la corriente
de entrada, entonces obtenemos que

ó .
154

Podemos observar que las intensidades de las corrientes en los límites de los
segmentos forman una progresión geométrica.
De esta manera, el cambio en la magnitud de la corriente que se propaga a
lo largo de un cable se expresa mediante una función exponencial de base ,
, es decir, del largo del
fragmento que tomemos. Si nosotros tomáramos como un fragmento en el
veces, obtendríamos la ecua-
ción . En las matemáticas muchas veces se
—la base de los
logaritmos naturales, que es aproximadamente igual a 2.718… Entonces,
nuestra ecuación luciría de la siguiente manera:
(6.2)

veces).

Podíamos obtener esta ecuación de una manera más sencilla, si hubiéramos


empleado el cálculo diferencial. Incluso podríamos determinar el valor del pa-
. Efectivamente, transformemos la ecuación de la página anterior de
tal manera que

que la corriente disminuye). En otras palabras, la función que buscamos es


. La solución de este tipo de fun-
. Es decir, para nuestro caso

(6.3)
Comparando las ecuaciones (6.2) y (6.3) podemos observar que el parámetro
, es decir, se puede expresar a través de la resistencia de la
capa aislante y de la resistencia del conductor del cable, tal y como se muestra
a continuación:

(6.4)
La constante es la constante de extinción de la señal; la ecuación (6.4)
muestra su dependencia de las resistencias específicas del material aislante y
del conductor, así como del radio del conductor del cable.
Ya que el potencial en cualquier punto del cable según la ley de Ohm es
, obtenemos para la disminución del potencial a lo largo del cable
que

(6.5)

De esta manera, la diferencia de potenciales en la membrana aislante del cable


(es decir, el cambio del potencial de la membrana del nervio) también disminu-
ye exponencialmente a lo largo del cable.
Estas ecuaciones (y muchas otras más) fueron obtenidas por W. Thomson
y sirvieron de base para la teoría que permitió realizar todos los cálculos de in-
geniería necesarios. Así es como se logró obtener una comunicación telegráfica
estable entre ambas costas del Atlántico.

Las ecuaciones (6.4) y (6.5) describen las propiedades del cable de un lar-
go infinito. Pero por supuesto que en la realidad este tipo de cables no existe.
No obstante, un cálculo sencillo nos permite determinar que si el largo del ca-
ble es 10-20 veces más largo que la constante de extinción de la señal, éste
puede considerarse como infinito.
El nervio—un cable infinito
Regresemos ahora con los nervios. Hablando en términos generales, el esque-
ma eléctrico del nervio fue determinado por Galvani. (Aunque Galvani hablaba
sobre el nervio completo, y no sobre los filamentos nerviosos individuales que
lo componen.) Él mencionaba que dentro del nervio existe un medio que con-
duce la electricidad, recubierta de una membrana aislante, muy similar al alam-
bre del generador electrostático aislado con cera. Realizando experimentos quí-
micos especiales, Galvani llegó a la conclusión correcta que la capa aislante
del nervio está constituida por sustancias grasas. El estudio posterior de la es-
tructura de los filamentos nerviosos individuales confirmó la observación de
Galvani. Y en 1946, Alan Hodgkin y William Rushton determinaron que los fi-
156

lamentos nerviosos individuales, como por ejemplo los del axón de calamar, se
comportan como un cable infinito, es decir pueden ser descritos mediante la
teoría de Thomson. Estos investigadores insertaban en el axón un microelectro-
do y aplicaban a través de éste una corriente creando un cambio del potencial
de la membrana en el punto de la inserción. Con la ayuda de un segundo mi-
croelectrodo se determinaba la diferencia de potenciales en la membrana a va-
rias distancias del primer electrodo (Fig.33A). Efectivamente, el potencial caía
de forma exponencial. La constante de extinción puede ser determinada de ma-
nera directa utilizando la gráfica de la caída del potencial (Fig.33B). Así fue
determinado que el axón del calamar es mucho más largo que su constante de
extinción. Después de esto, Hodgkin y Rushton realizaron cálculos que pode-
mos interpretar como el intento de la solución del problema inverso al proble-
ma resuelto por la teoría de Thomson. Para calcular los parámetros del cable
transatlántico (el diámetro del conductor, el grosor de la capa aislante) se utili-
zaban los datos de la resistencia específica del material conductor y del aislan

Fig.33 Extinción de la señal a lo largo del filamento nervioso. A — esquema del


experimento: 1 — electrodo para la aplicación de corriente (se aplica una corriente
que no induzca la excitación del nervio), 2 — electrodo para el registro de los poten-
ciales que surgen al aplicar la corriente. B — dependencia del potencial registrado
en función de la distancia desde el punto de aplicación de la corriente.

te. Ahora los investigadores tenían un cable listo—el axón, pero se descono-
cían las resistencias específicas de su “conductor”—el axoplasma, y de su
membrana aislante. Claro, la constante de extinción por sí sola no permite de-
terminar el valor de (no se pueden encontrar los valores de dos varia-
bles desconocidas contando con una sola ecuación). Pero en este tipo de expe-
rimentos se determinaba experimentalmente no solo la constante de extinción

Si registramos el potencial de la membrana en las inmediaciones del elec-


trodo de estimulación, y conocemos el valor de la corriente aplicada, podemos
encontrar la resistencia de entrada del nervio, el valor de la cual es exactamente
dos veces menor al valor de la resistencia del cable infinito (porque la corriente
que entra al nervio se divide en dos, y, hablando en término generales, obtene-
mos un situación similar a la de dos cables semi-infinitos conectados en parale-
lo). Aparte, con la ayuda de un microscopio es necesario medir de manera muy
exacta el diámetro del nervio. Entonces, utilizando la ecuación ,y
, es fácil encontrar los valores
=1000 Ohm∙cm2, y
=40 Ohm∙cm. Como podemos apreciar, la resistencia específica del
axoplasma es muy alta, alrededor de 25 millones de veces más alta que la resis-
tencia específica para el cobre, y la resistencia de la membrana, al contrario, es
muy baja en comparación con el aislamiento de los cables técnicos.
Haciendo referencia a estos resultados, en algunos libros científico-popula-
res se menciona que el nervio es un cable bastante malo, ya que queda claro
que a la distancia de un metro (la distancia aproximada entre la médula espinal
y los músculos de los dedos de las manos) la señal se extingue completamente.
De aquí el requerimiento de amplificar la señal en varios puntos intermedios
para transmitir la señal a través de estos nervios. Es decir, se necesitan estacio-
nes de retransmisión, lo que es correcto. Pero no del todo.
La transmisión sin impulsos o el primer encuentro con la geometría

Pero ¿por qué nosotros decidimos que la señal debe ser transmitida a una dis-
tancia de un metro? Claro, basándonos en las dimensiones de las personas, o de
la jirafa, o de cualquier otro ser vivo cuyas dimensiones rebasen las nuestras,
podemos decir que un metro es una distancia bastante razonable para transmitir
158

la señal. Pero hay que recordar que no todos los seres vivos son tan grandes
como nosotros.
Nuestro primer encuentro con la geometría está asociado a las diferencias
que existen entre los organismos grandes y los pequeños. La teoría de la seme-
janza geométrica nos dice que con el incremento de las dimensiones lineales de
un cuerpo en veces.
Este hecho tan maravilloso juega un papel muy importante en el entendimiento
de diversos fenómenos. ¿Por qué no caen las nubes?, ¿por qué las colas de los
cometas están orientadas en dirección opuesta al sol?, ¿por qué una hormiga
puede levantar un peso que supera 10 veces su propio peso y las personas no
podemos hacer lo mismo? Las respuestas a esas preguntas tienen que ver con
que todas las características físicas, tanto en la naturaleza inorgánica, como en
la orgánica, cambian proporcionalmente: la masa—proporcionalmente al cubo
de las dimensiones lineales del cuerpo, la resistencia del aire al movimiento del
cuerpo—de manera proporcional al cuadrado de las dimensiones lineales, etc.
En su momento, Galileo señalaba la importancia del principio en la seme-
janza para la naturaleza viva. Galileo notó que los animales pequeños pueden
emplear relativamente menos sustancias para la construcción de su esqueleto
que los animales grandes: el peso de los animales disminuye como función de
(del volumen), por ejemplo—1000 veces, mientras que la resistencia de los
huesos disminuye tan solo 100 veces, ya que esta resistencia es proporcional al
área transversal del hueso, es decir , por lo que con la reducción de las di-
mensiones los huesos se tornarían extremadamente gruesos y estos pueden ser
adelgazados.
En realidad no es tan fácil determinar cómo depende el cambio de la varia-
ble que nos interesa en las transformaciones de semejanza, sobre todo en los
organismos vivos. Por ejemplo, en “Los viajes de Gulliver”, Jonathan Swift
menciona que el emperador de Lilliput, al enterarse que Gulliver es 12 veces
más grande que los diminutos habitantes de esa tierra, ordenó que le dieran la
comida necesaria para alimentar a 1728 diminutos habitantes (1728=123). Aun-
que Swift a través de Gulliver elogió al emperador por ser “tan precavido”, en
realidad el emperador cometió un error: los requerimientos alimenticios de los
animales no son proporcionales a su volumen. En parte, esto se debe a que las
pérdidas de calor son proporcionales a la superficie del cuerpo, es decir a ,
por lo que una persona 12 veces más grande que un habitante de Lilliput gasta-
ría en la emisión de calor no 1728 veces más energía, sino tan solo 144 veces
más.

Entonces, al cambiar sus dimensiones los animales pueden obtener diferen-


tes beneficios: los animales pequeños pueden gastar relativamente menos ma-
terial para construir su esqueleto, mientras que los animales grandes pueden
ahorrar mejor el alimento que consumen.
Intentemos ahora abordar el problema de la transmisión de las señales por
un cable pasivo no desde el punto de vista del ser humano, para el cual un me-
tro de largo es una medida usual, sino desde el punto de vista de la mosca Dro-
sophila—el objeto de estudio preferido de los genetistas. Para este organismo,
las medidas más comunes son los milímetros, es decir, sus dimensiones linea-
les son aproximadamente 1000 veces menores a las de los humanos. Tú po-
drías argumentarnos—¡pero también sus nervios son más delgados! Sí, esto es
precisamente así. Pero calculemos ahora el valor que nos regresa la ecuación
(6.4). Si, por ejemplo, el nervio de la mosca es 1000 veces más delgado que el
nervio del calamar, es decir, no 1 mm, sino 1 µ
veces, es decir, será igual no a 8 mm,
sino a 250 µm. ¡Pero para la Drosophila esta distancia constituye el 20% del
largo de su cuerpo! Y a esta distancia la señal decae tan solo 3 veces. Tal vez la
mosca aguante incluso una extinción más fuerte de la señal. Los “cables ma-
los”—los nervios de conducción pasiva le permiten a la mosca transmitir el
impulso a prácticamente cualquier punto de importancia para ella, sin la nece-
sidad de una amplificación intermedia de la señal. Y es necesario tener en
cuenta que la Drosophila no es el organismo más pequeño con un sistema ner-
vioso.
Los experimentos demostraron que efectivamente, los organismos peque-
ños cuentan con una transmisión de señales a través de los nervios sin necesi-
dad de retransmisión.
Pero, detengámonos. Porque si el nervio es tan solo 2-3 veces mayor que la
, entonces no podemos considerarlo como un cable infinito. E in-
160

clusive, obtenemos un círculo vicioso: si el cable es considerado infinito, es


imposible enviar a través de éste una señal sin retransmisión, pero si la trans-
misión de la señal es posible, llegamos a la conclusión de que nuestro cable no
es infinito, y entonces todas las ecuaciones que obtuvimos no son aplicables a
un nervio así.
Este círculo vicioso lo rompió W. Thomson, quien obtuvo no solo las ecua-
ciones para el cable infinito, sino también las ecuaciones para segmentos fini-
—la constante de extinción, se encuentra pre-
sente en todas esas ecuaciones. Los cambios de potencial a lo largo de los frag-
mentos del cable se expresan de manera más compleja que en el caso del cable
infinito, pero la variable que nos interesa, la diferencia de potenciales en el ex-
, que tiene sellado su extremo (lo
que significa que la resistencia del área transversal en esta zona es mayor a la
resistencia del cable), se expresa de la siguiente manera:

, (6.6)

. Unas transformaciones sencillas nos permiten obte-

el potencial de mem-
brana es mayor al potencial registrado en un cable infinito a esa misma distan-
cia, considerando que el valor del potencial aplicado en el punto de referencia
es igual en ambos casos. En otras palabras, en un segmento de cable el poten-
cial decae de manera más lenta que en un cable infinito (Fig.34).

Pero regresemos con nuestras drosófilas. Como pudimos ver, sus nervios
no pueden ser considerados cables infinitos. Pero esto es mejor para ellas: a
la señal disminuirá no en veces, sino en un valor mucho
menor, es decir, la transmisión de la señal será más efectiva. En este caso, la
disminución de las medidas lineales produce no solamente un cambio en la re-
lación cuantitativa entre los valores, sino un cambio en el tipo de dependencia
entre estos: cambia no solo la relación entre la constante de extinción y el largo
del nervio, sino la función misma de disminución del potencial.
extremo aislado, c — fragmento de un cable con un extremo formando un corto
circuito.
Ahora volteemos hacia los humanos y preguntémonos: ¿tendremos muchas
neuronas con un axón de un metro de largo? La respuesta es “no”. Este tipo de
células son más bien excepciones de la regla. La inmensa mayoría de las célu-
las del cerebro envía señales solamente a sus vecinas, es decir a una distancia
de un milímetro o a veces de hasta fracciones de un milímetro. Entonces, para
muchas células del cerebro son más comunes las “medidas de la mosca Droso-
phila”; y a estas distancias, como ya vimos, las características de los nervios
como cables eléctricos no son tan malas. Entonces, no solo los animales peque-
ños cuentan con filamentos nerviosos que transmiten la señal sin impulsos.
Efectivamente, en varios animales ya se han encontrado neuronas que no gene-
ran impulsos. Las personas también tenemos este tipo de células, que son co-
nocidas desde hace mucho tiempo—las neuronas de la retina en el ojo. Noso-
tros examinaremos en el Capítulo 9 más a detalle las neuronas que no generan
impulsos, así como las ventajas y desventajas de este tipo de transmisión.
Resumiendo, la transmisión de la señal sin impulsos no es un privilegio de
los animales pequeños. Los campeones en esta modalidad de transmisión tal
vez pudieran ser los crustáceos cirrípedos (Cirripedia), unos seres que no son
tan pequeños. Estos crustáceos sésiles (que permanecen en un solo lugar en su
162

etapa adulta) recuerdan con su apariencia más a los moluscos que a un cangre-
jo tradicional.34 En la etapa adulta, los cirrípedos tienen tres manchas oculares
que les permiten distinguir la luz de la sombra y de esta manera perciben cuan-
do hay algún peligro, por lo que rápidamente se esconden en su cubierta. Esta
señal de peligro se transmite desde los receptores visuales hacia el cerebro por
unos filamentos nerviosos que alcanzan los 3 cm de largo y un diámetro de 30
µm. Cual fue el asombro de los investigadores cuando obtuvieron que, al pro-
pagarse por esos cables, la señal se extinguía tan solo en un 20%. El asombro
se debía a la enorme diferencia entre el experimento y el resultado de los cálcu-
los: incluso al emplear la ecuación para el cable infinito, estos últimos prede-
cían que en un filamento con esas dimensiones y con las características ya co-
nocidas para la membrana, el potencial al final del nervio debía constituir tan
solo una ínfima parte del potencial en el punto inicial. Pero como fue determi-
nado posteriormente, este nervio no es un nervio común. Los cirrípedos “in-
ventaron” una nueva técnica—ellos incrementaron la resistencia de la membra-
na de ese filamento nervioso. En la membrana de esos axones hay muy pocos
canales iónicos. Como podrás recordar, estos canales son necesarios para la ge-
neración del impulso nervioso, y como la señal en el nervio de los cirrípedos se
transmite sin impulso, no se requiere de un número elevado de canales. Pero
son precisamente los canales los que determinan la conductancia de la mem-
brana. Como resultado, la resistencia parcial de la membrana de los axones de
estos crustáceos es aproximadamente 500 veces mayor a la resistencia de la
membrana del axón gigante de calamar. Como vemos, las propiedades de la
membrana pueden cambiar durante la evolución en dependencia de las funcio-
nes que realiza.
Cuando las propiedades de la membrana cambian también tienen lugar una
especie de cambios en sus “dimensiones espaciales”: en el caso de los axones
de los cirrípedos, 3 cm ya es una distancia bastante corta. Incluso en un mismo

34
Estos organismos fueron ampliamente estudiados por Charles Darwin, quien escribió
sobre ellos una extensa monografía. A este hecho está relacionada una anécdota familiar.
Cuando Darwin se hizo famoso, llegaba mucha gente a visitarlo. En cierta ocasión, uno
de los visitantes se demoró y no se retiraba. Entonces uno de los hijos de Darwin pregun-
tó: “¿Y cuándo este señor se va a ir a su casa a estudiar a los cirrípedos?” El niño estaba
completamente convencido de que cada persona adulta pasaba varias horas al día escri-
biendo sobre los cirripedios.
organismo una distancia que es larga para un nervio, para otro nervio con ca-
racterísticas diferentes puede resultar corta. Una distancia que es inalcanzable
para la transmisión sin impulsos, puede ser una distancia común para otro tipo
de nervio. De esta manera, para caracterizar la distancia a la cual puede trans-
mitirse la señal mediante un mecanismo sin impulso (o, como lo llaman los
científicos—electrotónico), siempre hay que tomar la unidad de medición ne-
cesaria—la constante de la extinción de la señal en cada nervio.
¡No nos olvidemos de la capacitancia!
No obstante, existe otro factor que incide en la extinción de la señal, y que está
relacionado no con las dimensiones lineales, sino con el tiempo. Y es que en sí
la constante de extinción no es tan constante: la extinción de la señal que corre
por un mismo nervio depende de la velocidad del cambio de la corriente. La
constante de extinción de la señal, que se determina por la constante
sirve solamente para el caso de una corriente continua. Pero está
claro que con la corriente continua es imposible transmitir información, así
como era imposible transmitir un telegrama accionando el interruptor del telé-
grafo una sola vez. Pero para examinar las propiedades del cable por el que co-
rre una corriente alterna es necesario tener en cuenta otra de sus características
—la capacitancia de la capa aislante. Efectivamente, por la presencia de la ca-
pacitancia, el aislante va a tener una menor resistencia a la corriente alterna que
a la corriente continua, porque la corriente alterna va a fluir tanto a través de la
resistencia activa de la membrana (al igual que la corriente continua), como a
través de la capacitancia. Y mientras más baja sea la resistencia de la capa ais-
lante, más rápido se extinguirá la señal que se propague a través de un cable así
(fíjate en la ecuación [6.5]). De esta manera, los cables pasivos cuya membrana
tienen una capacitancia, transmiten de peor manera señales variables (sobre
todo las que varían de manera muy rápida) en comparación con las señales de
corriente continua. En otras palabras, cuando se analiza la transmisión de co-
rrientes alternas es necesario tomar como elemento del cable el circuito com-
pleto que incluye la capacitancia, tal como se muestra en la Fig.31, y no el es-
quema simplificado, como el que se presenta en la Fig.32, y que utilizamos
para el caso de la corriente continua.
164

Nosotros mencionamos que una señal que cambia de manera rápida se ex-
tingue más rápido que una señal que cambia de manera más lenta. Pero ¿qué
significa “rápido”? Es decir, ¿a qué velocidad del cambio de potencial comien-
za a sentirse el efecto de la capacitancia sobre su extinción? Las expresiones
“rápido” y “lento” en este caso son tan ambiguas como las expresiones “peque-
ño” y “grande”. Pues resulta que al igual que en el caso de objetos grandes y
pequeños cuyo tamaño se determina al compararlos con un estándar, los con-
ceptos de “rápido” y “lento” también tienen su estándar—la constante de tiem-
po son,
respectivamente, la resistencia específica y la capacitancia de la membrana.
Las unidades de la constante de tiempo son, como podemos esperar, los segun-
dos. Por ejemplo, para el axón gigante del calamar -
ñal que dure una centésima de segundo va a ser transmitida por ese nervio casi
de la misma manera que la corriente continua. Pero una señal de esta misma
duración para una neurona de molusco ( = 0.5 s) será considerada como “rá-
pida”.
Ahora ya podemos llegar a la conclusión. Para transmitir una señal bastan-
te lenta en comparación con —la constante del tiempo, a una distancia com-
parable con la distancia —la constante de extinción (espacial), es suficiente
contar con un cable pasivo (es decir un mecanismo de transmisión electrotóni-
ca de las señales). En caso contrario, para la transmisión de la señal sin extin-
ción es necesario amplificar la señal durante su propagación, es decir transmi-
tirla mediante impulsos (aunque también es posible cierta amplificación que no
provoca la generación del impulso, pero disminuye la extinción de la señal). La
evolución elige entre estas opciones aquella que asegure la señalización confia-
ble, es decir, la transmisión al extremo receptor de una señal con una intensi-
dad suficiente.
Mejor temprano que tarde, o la cuchara llega a tiempo, si es la hora de la
comida
Pero la seguridad (confiabilidad) no es el único requisito para una línea de co-
municación. Nosotros seguramente no estaríamos contentos si nuestros correos
nunca se perdieran (alta confiabilidad), pero llegaran con un retardo de un año,
y mucho menos aceptaríamos que un aviso de protección civil nos llegara una
vez que termine una erupción volcánica. Lo mismo ocurre con el sistema ner-
vioso. No es suficiente con transmitir las señales con la intensidad necesaria, es
necesario también que estas señales lleguen a tiempo, es decir—una condición
vital de la efectividad de la señalización lo es también una velocidad suficien-
te35 de la transmisión de señales.
¿De qué depende esa velocidad? Pero antes de responder esta pregunta, es
necesario precisar qué entendemos por velocidad de la señal. En el caso de la
retransmisión es más o menos posible comprender qué es la velocidad: la señal
es un impulso de cierta magnitud (PA), que se propaga a lo largo del nervio; la
velocidad de la propagación del impulso es la velocidad de la señal. Este pará-
metro puede ser medido directamente, y precisamente esto fue lo que hicieron
experimentalmente Bernstein y Hermann. Pero la transmisión electrotónica es
un caso diferente.
Si le preguntamos a alguien a qué es igual la velocidad de la transmisión de
la señal, por ejemplo, en la línea telefónica, esa persona respondería sin titu-
bear que la velocidad de la señal es cercana a la velocidad de la luz, y estaría
en lo correcto. Entonces, en el nervio—que también es un cable, la señal debe-
ría comportarse de la misma manera. Pero las diferencias cuantitativas de las
características eléctricas entre un nervio y un cable de aquellos que se utilizan
en los circuitos eléctricos crean un panorama cualitativamente diferente. La se-
ñal no solo se apaga fuertemente debido a la baja resistencia de la membrana:
también la presencia de una gran capacitancia provoca que el potencial no se
distribuya de manera inmediata.
Fíjate en la Fig.35B, las curvas t1, t2, … muestran que, al aplicar la corrien-
te, el potencial cambia de manera notoria solamente en los segmentos del cable
cercanos al lugar de la aplicación de la corriente, ya que prácticamente toda esa
corriente se destina a cargar los condensadores adyacentes, y solamente hasta
después de haber cargado paulatinamente los condensadores más alejados el
potencial se distribuye hasta alcanzar el equilibrio. Como resultado, la veloci-

35
Tú seguramente ya entenderás que una “velocidad suficiente” es un concepto relativo,
relacionada tanto a las características espaciales, como a la importancia de la señal. No-
sotros también elegimos como enviar una noticia—por el correo convencional, o a través
de un correo electrónico.
166

dad con la que llega a su punto final una señal de una magnitud perceptible
depende de qué tan rápido alcance su equilibrio la distribución del potencial.
Un análisis bastante sencillo indica que esa velocidad debe depender de los
, y de la
. Efectivamente, mientras
mayor sea , menor será la porción de corriente que se fuga a través de la

Fig.35 Ilustración para la determinación de la velocidad de propagación de la


señal electrotónica. A — esquema del experimento. En cierto momento de tiempo,
el filamento es estimulado con una corriente constante en el punto a0, y luego se re-
gistra el cambio de potencial con el tiempo en ese mismo punto y a distintas distan-
cias de él. Mientras más alejado se encuentra el punto de registro del punto de esti-
mulación, más lento será el incremento del potencial y menor será su valor final. B
— Gráficas de la distribución del potencial a lo largo del nervio en distintos mo-
mentos del tiempo (t1, t2, t3, t4) luego de la aplicación de la corriente constante. La
).
capa aislante y más rápido cargará al condensador la corriente remanente; a su
vez, mientras más grande sea la capacitancia (y, como consecuencia,
lenta será la carga de la membrana, por lo que también más lento será el alcan-
ce del estado de equilibrio en la membrana.
Hodgkin y Huxley revisaron estas consideraciones generales en 1946, e in-
trodujeron el concepto de velocidad del electrotono. Fíjate otra vez en la
Fig.35B ¿Qué es lo que podemos considerar aquí por velocidad? Si intentamos
determinarla basándonos en la velocidad con la que aparece a cierta distancia
una mínima variación del potencial, entonces ésta será la velocidad de la luz.
Pero esta característica del sistema nervioso es inútil: el sistema nervioso no
puede detectar una señal mínima. Pero si consideramos como velocidad el
tiempo necesario para que en cierto punto el potencial llegue a su equilibrio,
entonces esta velocidad será igual a cero, porque el tiempo necesario para que
se establezca el potencial de equilibrio es infinito.
Por eso para, poder cuantificar la velocidad de la propagación de una señal
electrotónica Hodgkin y Huxley eligieron una medida convencional.
En la Fig.35B la curva marcada con los puntos representa una exponente
condensada del proceso de equilibrado del potencial. En el comienzo del ner-
vio el potencial no solo es mayor por su magnitud, sino que también se acerca
más rápido a su valor estacionario (de equilibrio). Como vemos, en el punto
inicial a0 el potencial se iguala a la mitad del valor de equilibrio antes que en
otros puntos del nervio. En el punto a1
punto a0, el potencial alcanza el valor de la mitad del potencial de equilibrio a
un tiempo 0.5 a0; en el punto a2, que se encuentra
a una distancia del comienzo del nervio, el potencial alcanza la mitad del
valor del potencial de equilibrio con un retardo igual a , en comparación con
el punto a0, y así sucesivamente.
Entonces, bajo velocidad de transmisión electrotónica se entiende la velo-
cidad con la que se desplaza el potencial medio, cuyo valor es igual a la mitad
del potencial de equilibrio.
Esta definición parece muy compleja y algo artificial. Pero en realidad es
maravillosa. En primera, esta velocidad es constante a lo largo de todo el cable
168

infinito (si tomamos como medida el valor cuando el potencial alcanza no la


mitad, sino, por ejemplo, un tercio del potencial de equilibrio, esta velocidad
ya no será constante). En segunda, esta velocidad se expresa de manera muy
fácil a través de las características principales del cable— :

. (6.7)

En tercera, aunque esta velocidad fue introducida para un cable infinito, resulta
que también en los cables finitos, con los cuales trabajan los biólogos, la velo-
cidad media de transmisión de la señal tiene el mismo orden de magnitud.
¿De qué depende la velocidad del impulso nervioso?
Veamos ahora la situación en el caso de la transmisión con impulso. Aunque
en este caso no tenemos que aclarar el concepto de velocidad, su dependencia
de las propiedades del nervio es más complicada: porque, como ya sabes, el
desplazamiento del PA a lo largo del nervio es el resultado de dos procesos: la
excitación activa de la membrana, y la transmisión pasiva de la señal eléctrica
por un fragmento del nervio que todavía no está excitado. Es natural por eso
que la velocidad de propagación del impulso sea determinada tanto por las ca-

es decir, aquellas que influyen en el desarrollo de la excitación.

Fig.36 Velocidad de la propagación del impulso en función de los parámetros


del filamento nervioso. A — magnitud del impulso nervioso, Vp — potencial um-
bral de la membrana, 0 — distancia hasta el punto más lejano del filamento que aún
será excitado bajo el efecto de un impulso con las coordenadas .

No es muy difícil imaginar cuál será el carácter de esta dependencia. Queda


claro que la velocidad del impulso es mayor mientras mayor sea la velocidad
. Mientras mayor
sea esa velocidad, mayor será la distancia que podrá recorrer la señal por un
fragmento de nervio que todavía no se ha excitado, manteniendo un potencial
mayor al potencial-umbral.
Igualmente, es comprensible como influyen en la velocidad de la señal las
características activas del nervio: el factor de seguridad y la velocidad del desa-
rrollo de la excitación. Analiza la Fig.36.
Mientras más alto sea el factor de seguridad, es decir, mientras más grande
es la magnitud del PA, y mientras más bajo sea el umbral, mayor será la distan-
cia a la que el potencial de la zona ya excitada podrá excitar un fragmento to-
davía no excitado. Mientras más rápido se desarrolla la excitación, menor será
el retraso en el tiempo y más alta será la velocidad de la transmisión.
Ahora es fácil tomar en cuenta estas consideraciones, cuando ya entende-
mos plenamente cómo es que se propaga el impulso y cuál es el mecanismo de
este proceso. Pero su descubrimiento fue el resultado de un enorme trabajo, de
la interacción de las hipótesis y los experimentos, de la suerte y los errores.
Desde 1907, Samuel S. Maxwell, que estudiaba la dependencia de la velo-
cidad de la propagación del PA en función de la temperatura, demostró que una
disminución de la temperatura del nervio de 10°C resulta en una reducción de
la velocidad de transmisión de la señal de 2.5 veces. Pero este resultado por
mucho tiempo fue interpretado erróneamente y se consideraba como un argu-
mento a favor de la teoría de la difusión del impulso nervioso, ya que la reac-
ción química sí puede depender en esta forma de la temperatura. Pero ahora
nosotros ya entendemos que la temperatura influye en la velocidad del desarro-
llo de la excitación y que los experimentos de S. Maxwell encajaron como
tabiques en el edificio de la teoría general.
Entre muchos científicos que aportaron su esfuerzo a la construcción de ese
edificio, hay que mencionar al biólogo estadounidense Ralph Lillie. En el año
1914, él expuso las sencillas consideraciones que presentamos más arriba sobre
el tipo de vínculo entre la velocidad de la propagación del impulso por el ner-
vio y las características pasivas de este último. Con esto, Lillie fue uno de los
primeros investigadores que señalaron la similitud entre un nervio y un cable.
170

Luego Ralph Lillie inventó un modelo muy bonito del proceso de transmisión
de la excitación. Si sumergimos en ácido nítrico un alambre de hierro oxidado
y luego raspamos ligeramente el óxido, el área dañada del óxido comienza a
propagarse a lo largo del alambre, y se ha mostrado que esa propagación se da
por las corrientes locales (al igual que en el caso del PA). De esta manera, el
alambre juega el papel del conductor en el cable, el óxido—el papel de su capa
aislante, el ácido nítrico—el papel del medio externo y la propagación del área
de óxido dañado imita el avance del potencial de acción.
Posteriormente, este modelo le sugirió a Ralph Lillie la maravillosa idea de
la transmisión saltatoria, pero nosotros hablaremos de este tema más adelante.
Los trabajos de Ralph Lillie y de otros investigadores estimularon la reali-
zación de nuevos experimentos para la revisión de la teoría del cable, que se
volvían más exactos mientras más sofisticada se hacía la técnica del experi-
mento. En 1939, Hodgkin se dio a la tarea analizar cómo depende la velocidad
del impulso en función de la resistencia del medio externo. Para esto, Hodgkin
determinó la velocidad del PA en el nervio que se encontraba en un gran volu-
men de agua de mar y en un nervio retirado de su entorno acuático y que estaba
cubierto solamente por una delgada capa de líquido. En el segundo caso la
velocidad del impulso nervioso era menor, tal y como lo predice la ecuación:36

(6.8)

En 1974, Katz analizó en experimentos más rigurosos el carácter de esa depen-


dencia, determinó la constante -
dad de la propagación del PA en ese nervio.
Luego de que los investigadores aprendieron a cambiar el contenido iónico
interno del axón de calamar fue posible cambiar en la ecuación (6.8) no solo el

36
Ésta es la misma ecuación para la constante espacial (de extinción de la señal) que la
ecuación (6.4). Pero cuando nosotros obteníamos esa expresión, considerábamos que la
resistencia del medio externo es muy baja, por lo que podía ser ignorada. Pero si la resis-
tencia ro del medio externo es notable, entonces ésta juega el mismo papel que la resis-
tencia del protoplasma y simplemente se añade a la última.
, sino también el de la resistencia del medio interno (el axoplasma)
fue demostrado en el impresionante trabajo de
José del Castillo y John Moore. Ellos introdujeron en el interior del axón de ca-
lamar un alambre de plata muy delgado que iba a lo largo del axón, con lo que
disminuían drásticamente la resistencia del axoplasma. Con esto, ellos consi-
guieron aumentar la velocidad de propagación del PA en cientos de veces.
Luego, en otros experimentos, inyectaban en el interior del axón una solución
de sulfato de potasio (la resistencia de la cual es menor a la resistencia del axo-
plasma), o una solución con sacarosa, la resistencia de la cual es mayor a la re-
sistencia del axoplasma. En cada caso la velocidad de propagación del impulso
nervioso cambiaba de acuerdo a la teoría.
La transmisión del impulso nervioso y el modelo de Hodgkin-Huxley
Todos estos resultados pudieron ser reunidos en un sistema completo cuando
se creó el modelo de Hodgkin-Huxley. Como puedes recordar (del Capítulo 4),
este modelo es un sistema de ecuaciones que describe el comportamiento de la
membrana excitable, y que nos dice cómo cambia la resistencia de la membra-
na, qué corrientes comienzan a correr a través de ella y cómo cambian esas co-
rrientes con el tiempo, si en el tiempo inicial aplicamos en cierto punto de la
membrana un potencial determinado.
Habiendo desarrollado su modelo matemático de la excitación, Hodgkin y
Huxley agregaron a las cuatro ecuaciones de su modelo la ecuación del cable
de Thomson.
La solución de ese sistema de ecuaciones, obtenida en las primeras compu-
tadoras,37 dio un valor de la velocidad de transmisión del impulso muy cercano
al determinado experimentalmente. En 1959, Huxley demostró que las ecua-
ciones representan la dependencia correcta de la velocidad del impulso en fun-
ción de la temperatura. Al solucionar este sistema de ecuaciones, fue determi-
37
Es interesante, que en 1940 tres investigadores estadounidenses intentaron crear una
teoría única que reuniera las ecuaciones del cable y la teoría de la membrana de Berns-
tein. En ese trabajo por primera vez fue demostrado que la disminución de la resistencia
de la membrana durante la excitación es importante para la transmisión del PA y se pre-
dijo que la solución al problema de la propagación del impulso nervioso se lograría en-
contrar con la aparición de las computadoras.
172

nado que existen dos velocidades de propagación del impulso a lo largo del
nervio, que nadie había considerado antes. Al igual que en muchas ocasiones
anteriores, las ecuaciones resultaron ser muy inteligentes.
El análisis demostró que solo la velocidad más alta es la estable; esto signi-
fica que si al principio el impulso se propaga de una manera un poco lenta, su
velocidad incrementará. En cambio, si su velocidad era más alta, ésta disminui-
rá. La segunda velocidad resultó ser no estable: si el impulso se propagaba a
una velocidad menor a la misma, finalmente se debilitaba y se extinguía, y si se
propagaba a una velocidad mayor, ésta aumentaba hasta alcanzar el valor de la
velocidad estable. Estos dos procesos tienen su analogía en los procesos de
combustión (la velocidad alta) y el ardimiento (la velocidad baja inestable)
cuando se propaga el fuego por un papel que se quema. En condiciones experi-
mentales no era posible determinar la velocidad baja, debido a su carácter ines-
table.
Pero ¿cómo pueden existir en un nervio dos tipos diferentes de velocida-
des? ¿En qué condiciones se acelera el impulso? Todo depende de las condi-
ciones iniciales. Si al principio excitamos un fragmento pequeño del nervio, el
impulso o puede extinguirse, o comenzará a acelerarse, es decir el área excita-
da se extenderá, con esto aumentará la magnitud del PA, lo que provocará un
mayor aumento del área excitada y así sucesivamente, hasta que sea alcanzada
la velocidad estable de la propagación del PA.
¿Y se podrá incrementar la velocidad?
La velocidad del PA es un parámetro muy importante para los organismos.
Mientras mayor sea esa velocidad, menor será el tiempo de respuesta, más rá-
pido se podrá notar a un depredador o a una presa. Así que podemos imaginar
que la selección natural “trabajó” muy bien este aspecto.
Por eso, hagámonos la siguiente pregunta: ¿alcanzó la naturaleza como re-
sultado de la evolución algún valor óptimo en cuanto a la velocidad del PA, o
todavía quedan reservas ocultas, que pudieran permitir incrementar esta veloci-
dad?
Veamos si podemos incrementar el factor de seguridad, es decir la relación
. La magnitud del PA
es aproximadamente igual a 0.1 V. ¿Por qué no la hacemos, por ejemplo, igual
a 1 V? Pues resulta que hay dos obstáculos. Primero, como sabes, la magnitud
del PA depende de los logaritmos de las concentraciones de Na+ y de K+ dentro
y fuera del filamento nervioso. Para obtener un PR de 115 mV hay que crear a
través de la membrana una diferencia de concentraciones de potasio de 100 ve-
ces. Pero para tener un potencial de reposo igual a 150 mV ya hay que tener
dentro del nervio una concentración de potasio 400 veces mayor a la concen-
tración de potasio fuera del nervio (checa el Capítulo 3, la ecuación (3.2)).
Pero para aumentar la magnitud del PA hay que pagar por la energía con-
sumida por las bombas iónicas y de esta manera los gastos aumentan de mane-
ra no proporcional a las ventajas. Y en la evolución no sólo la rapidez de la
reacción es importante: también es necesario ahorrar energía.
Pero incluso si nos olvidamos del ahorro de energía, no podemos incre-
mentar la magnitud del PA. Aunque la magnitud del PA es solamente 0.1 V, el
grosor de la membrana es muy pequeño, y por eso la tensión del campo eléctri-
co a través de la membrana es muy alta: 0.1 V / 10 nm = 109 V/cm. Esta ten-
sión es muy cercana a la tensión de perforación dieléctrica (cuando se forma un
corto circuito). Si aumentamos la magnitud del PA varias veces, la membrana
será perforada.38
Entonces, la magnitud del PA no puede ser incrementada notablemente.
Otra alternativa podría ser disminuir el potencial umbral: por ejemplo, en vez
de 20 mV hacerlo igual a 1 mV y con esto incrementar drásticamente su velo-
cidad. Pero resulta que tampoco el umbral puede ser disminuido significativa-
mente. Más arriba nosotros considerábamos que el potencial de reposo tiene un
valor constante. Pero en realidad esto no es así. Durante el paso de los iones de
potasio a través de la membrana ocurren fluctuaciones—pueden entrar o salir
un poco más de iones de potasio, por lo que el potencial de la membrana siem-
pre tiene fluctuaciones, oscila. Es necesario que el umbral sea bastante más alto
que la magnitud de estas fluctuaciones, porque de lo contrario comenzaríamos
38
Por cierto, esta perforación eléctrica de la membrana es utilizada ahora para hibridar
células e incorporarles organelos. La creación de este tipo de células híbridas se usa en la
citología, en la genética e incluso en procesos biotecnológicos. Las células no se
fusionan por sí solas entre ellas. Otro de los instrumentos principales para lograr esta
fusión es un virus especial—el virus Sendai.
174

a oír ruido y ver cosas, aunque nuestro entorno en realidad permanezca tran-
quilo y oscuro.
Entonces, a la naturaleza solo le queda un único recurso para poder aumen-
tar la velocidad de la propagación del impulso en los filamentos nerviosos—el
incremento de sus diámetros. Recordemos que la constante de longitud (y
como consecuencia, la velocidad) es proporcional a la raíz cuadrada del diáme-
tro del filamento nervioso. Entonces, para incrementar la velocidad al doble,
hay que aumentar el diámetro cuatro veces. Y aquí de nuevo surge una nueva
controversia en los requerimientos del organismo. Por una parte, es importante
tener nervios que conduzcan más rápido, Por otra parte, es bueno tener muchos
nervios que permitan analizar de una mejor manera el mundo exterior. Pero no
se puede tener muchos filamentos nerviosos gruesos, porque estos ocuparían
un volumen muy grande. Por eso el organismo tiene que decidir cuáles de los
nervios deben ser más gruesos y cuáles—más delgados. Queda claro que los
más gruesos deben ser los nervios que transmiten las señales vitales más im-
portantes.
En muchos animales se han encontrado filamentos nerviosos gigantes, es
decir, nervios de un diámetro excepcionalmente grande. Nosotros ya hablamos
sobre el axón gigante de calamar. Pero también tienen axones gigantes las lom-
brices, las sanguijuelas (Hirudo), los langostinos o chacales de río y otros ani-
males. ¿Cuál es el papel de estos filamentos nerviosos?
En las lombrices y en las sanguijuelas estos nervios gigantes controlan los
músculos longitudinales del cuerpo, permitiendo la rápida contracción del
cuerpo en caso de peligro. En este caso los nervios controlan el comportamien-
to de defensa.

En los calamares, los nervios gigantes controlan la contracción del manto.


Hacia el extremo posterior del manto los axones son más gruesos, y hacia el
extremo delantero son más delgados. Como resultado, las señales que salen del
ganglio que regula los movimientos natatorios llegan a los extremos de manera
casi simultánea, permitiendo una expulsión rápida del agua de la cavidad del
manto y el nado de rápido del calamar en el agua.
Los axones gigantes de los langostinos controlan los músculos de su cola.
La excitación de estos nervios hace que la cola se doble rápidamente, y como
resultado el langostino retrocede bruscamente. En este caso, los axones gigan-
tes también controlan las reacciones de defensa. Unos axones gruesos con esas
mismas funciones se han encontrado también en los insectos (en las cucara-
chas, en los grillos, en las langostas y en otros animales).
Es interesante que en el caso de algunos animales, por ejemplo, en el caso
de las lombrices, el diámetro del axón gigante cambia drásticamente cuando la
lombriz se contrae o se estira. Considerando que la velocidad de propagación
del PA depende del diámetro del nervio, se podría esperar que en una lombriz
estirada esta velocidad sería menor. Pero las mediciones de la velocidad del PA
en los nervios de la lombriz, realizadas en 1965 por Tatiana Potápova y Levón
Chaylakhyán demostraron que la velocidad de propagación del PA en estos
axones es siempre igual y no depende del diámetro. A primera vista este hecho
contradice la teoría. Pero en realidad no existe controversia alguna: nuestra
teoría del cable fue desarrollada para el caso de la membrana lisa, y la mem-
brana del axón gigante de la lombriz de tierra tiene pliegos, se puede decir que
está “arrugada”, lo que le permite al axón cambiar drásticamente su longitud
sin la necesidad de cambiar el diámetro. Y resulta que para esta membrana
“arrugada” la teoría predice una velocidad constante de propagación del PA.
Esta teoría fue desarrollada por Hodgkin en 1954 para las fibras musculares,
que también cambian su longitud al contraerse y relajarse.
Nervios de acero con cuentas de vidrio
Nosotros ya vimos que en los filamentos nerviosos la velocidad de propaga-
ción del PA alcanza su máximo y puede ser incrementada únicamente aumen-
tando el diámetro del nervio: si el diámetro del nervio es 200 µm, la velocidad
es igual a 20 m/s, si el diámetro es 2 mm, la velocidad aumenta a 60 m/s. Pero
¡existen nervios con un diámetro de tan solamente 20 µm y en los cuales la ve-
locidad es de 120 m/s! Es decir, ¡en nervios 100 veces más delgados que el
axón de calamar la velocidad del PA es 2 veces mayor! ¿Cómo es que la natu-
raleza resolvió todos los obstáculos invencibles que acabamos de exponer
algunas páginas atrás? En este caso se utiliza un “invento” completamente nue-
vo.
Hasta el momento nosotros hemos analizado filamentos nerviosos homogé-
neos, es decir aquellos en los que la membrana es igual en todas partes. La
176

nueva idea de la naturaleza consiste en hacer el nervio como de módulos, de


fragmentos alternados con diferentes propiedades y distintas funciones: una
parte de los fragmentos juega el papel del cable que transmite las señales, y la
segunda parte juega el papel de la fuente de corriente. Así se evitan muchas de
las dificultades que describimos anteriormente. Por ejemplo, los fragmentos de
cable pueden ser recubiertos de una gruesa capa aislante, porque en estas partes
no se necesita contar con canales o bombas iónicas. Este tipo de nervios se lla-
man nervios mielinizados o nervios con nodos de Ranvier.
Estos filamentos se “obtienen” de un nervio homogéneo común (Fig.37A).
Un fragmento largo del nervio (de una longitud más o menos igual a 100 diá-
metros) se recubre con un buen aislante (la mielina) y luego queda un pequeño
espacio de aproximadamente 2 µm de largo sin recubrimiento aislante (a este
espacio precisamente se le denomina nodo de Ranvier). Después sigue de nue-
vo un fragmento aislado, y así sucesivamente.

Fig.37 Esquema de la propagación de la excitación por un nervio con nodos de


Ranvier: A — estructura de un nervio mielinizado. A la derecha, en el corte trans-
versal, se puede observar que la mielina está compuesta por varias capas de mem-
brana de una célula de Schwann, la cual se enrolla a manera de aislamiento alrede-
dor del axón. B — esquema de la propagación saltatoria, la corriente fluye entre el
nodo no excitado 2 y el nodo excitado 1, pero prácticamente no fluye a través de la
mielina.

La capa aislante tiene una resistencia cientos de veces más alta que la resisten-
cia de la membrana del axón de calamar, y una capacitancia cientos de venos
menor: de esta manera conseguimos un cable bastante bueno, con nodos (en
los cuales se encuentran los canales y las bombas iónicas) que juegan el papel
de fuentes de electricidad. Si uno de estos nodos se excita, la corriente genera-
da por éste llegará hasta el próximo nodo sin grandes pérdidas (porque la resis-
tencia de la membrana es alta) y ahí saldrá hacia afuera provocando la excita-
ción del siguiente nodo (Fig.37B). Incluso si ese nodo por alguna razón no ge-
neró una respuesta, la corriente que pasa por el interior del cable es suficiente
para excitar el siguiente nodo funcional. Este tipo de conducción de la excita-
ción se llama saltatorio, debido a los “saltos” del impulso de un nodo hacia el
otro, y a la brevedad de la propagación entre dos nodos que ocurre en tan solo
centésimas de milisegundos (50-70 µs). Las corrientes locales corren principal-
mente a través de los nodos. Esta estructura del nervio permite no solo una alta
velocidad de transmisión, sino que además es bastante ahorradora: los iones de
potasio salen del nervio y los iones de sodio entran a éste tan solo en los nodos
de Ranvier que constituyen una pequeñísima parte del área de superficie de la
membrana, por lo que se utiliza muy poca energía para mantener las concentra-
ciones de los iones y para restablecer sus gradientes.
La idea de la transmisión saltatoria fue expuesta por Ralph Lillie en 1925.
Él demostró las ventajas de este tipo de transmisión en su modelo del nervio:
un alambre de hierro oxidado colocado en ácido nítrico.
Lillie cubrió el alambre de cuentas de vidrio bien adheridas y demostró que
en estas condiciones la velocidad de propagación de la eliminación del óxido
incrementa drásticamente. Pero demostrar que es precisamente este método el
utilizado en algunos nervios de los vertebrados era una tarea muy difícil, por-
que los vertebrados no tenemos nervios tan gruesos y “cómodos en el trabajo”
como los nervios del calamar.
Esta verificación fue obtenida en gran parte por investigadores japoneses,
que en los años 30 aprendieron a hacer preparaciones de nervios mielinizados
individuales de una rana (en particular, el primer investigador que pudo obte-
ner estos nervios fue Gen'ichi Kato). Estos investigadores demostraron que es
más fácil excitar a este nervio cuando el electrodo se encuentra cerca del nodo
de Ranvier, y luego demostraron que la corriente eléctrica durante la propaga-
ción del PA sale precisamente por los nodos de Ranvier.
178

La naturaleza también resolvió el problema de la aceleración de la transmisión


en los nodos de Ranvier. En los nervios con estos nodos pueden cambiar dos
parámetros geométricos: el largo del fragmento entre los nodos y el grosor del
aislante. Es obvio que ambos parámetros tienen un valor óptimo. Efectivamen-
te, si hacemos muy pequeña la distancia entre los nodos ( ), un nervio se
convierte en un nervio simple sin mielina y con una velocidad de transmisión
menor. Y si la distancia entre los nodos es muy grande, entonces la corriente de
un nodo no podrá excitar al siguiente nodo (las propiedades aislantes de la mie-
lina no son ideales, y la constante longitudinal es de varios milímetros). La na-
turaleza eligió una distancia entre los nodos aproximadamente igual a 100 diá-
metros del nervio. Esta no es una distancia óptima, pero sí garantiza la transmi-
sión incluso si uno de los nodos deja de funcionar o desaparece su excitabili-
dad. El segundo parámetro geométrico que podemos cambiar es el grosor del
aislante. Supongamos que tenemos como condición inicial el diámetro externo
del nervio con los nodos de Ranvier. ¿Cómo podemos utilizar estas condicio-
nes? Podemos hacer una capa aislante gruesa y ocupar con ellas todo el diáme-
tro, pero en este caso habrá muy poco espacio para el axoplasma, y será muy
alta la resistencia longitudinal en la cual caerá todo el potencial. Por otra parte,
podemos tener una condición en la cual el axoplasma ocupe todo el espacio del
nervio, pero entonces la capa aislante será muy delgada. Entre estas condicio-
nes extremas se encuentra la proporción óptima entre el grosor de la capa ais-
la relación entre el
diámetro interno del fragmento con la mielina y el diámetro externo del axón,
. Este problema fue
solucionado por W. Rushton en 1951. Él descubrió que la velocidad del PA es
alcanza su valor máximo. De esta
expresión se puede obtener el valor de (haz este ejercicio): =
en los nervios
mielinizados reales, hallaron que este valor era muy cercano al óptimo.
¿Por qué entonces los invertebrados no tienen estos nervios mielinizados
tan maravillosos que tienen los vertebrados? Al parecer, esto se debe a que los
invertebrados no tienen las células especializadas que producen el aislamiento
de los filamentos nerviosos. Y, efectivamente, nosotros acabamos de decir que
el largo del segmento aislado es igual a 100 diámetros del nervio y que =
0.6-0.7. Pero ¿quién es el que recubre los nervios del material aislante del largo
necesario? Esto lo hacen unas células especiales, las llamadas células de
Schwann (descubiertas por aquel mismo Schwann, quien fue uno de los crea-
dores de la teoría celular). Durante el desarrollo del sistema nervioso la célula
de Schwann se arrima al axón y comienza a envolverse alrededor de él, como
cuando nosotros cubrimos un cable con cinta de aislar. La cubierta de mielina
consta de muchas capas de membrana de una célula de Schwann. Pero, ¿de
dónde “sabe” la célula de Schwann que alrededor de un nervio grueso hay que
envolverse muchas más veces y que hay que cubrir un segmento más prolonga-
do? Existen varias evidencias de que el axón le especifica a la célula de
Schwann el grosor de la capa de mielina a través de la producción de la proteí-
na neuregulina-1 (Nrg1).
¿Es siempre beneficioso un nervio mielinizado?
Nosotros ya vimos que un nervio con nodos bastante grandes permite
transmitir el PA a gran velocidad. En el caso de los nervios mielinizados, la
dependencia de la velocidad de propagación de la señal en función del
diámetro del filamento nervioso es diferente a la observada en el caso de los
nervios lisos. Si en el caso de los nervios lisos la velocidad , en el caso
es el diámetro del nervio.

De esa expresión podemos llegar a la si-


guiente conclusión: con la disminución
del diámetro de los filamentos, la veloci-
dad de transmisión decae más rápido en
los nervios con nodos. A cierto diámetro,
los nervios no mielinizados deben comen-
zar a conducir el impulso más rápido que
los nervios mielinizados. La cuestión es
¿cuál es este diámetro?
Porque puede ser el caso de que ese diá-
metro crítico sea demasiado pequeño (por ejemplo, si es igual al diámetro de
una molécula). En la Fig.38 se presentan las gráficas de la dependencia de la
180

velocidad de propagación en los nervios mielinizados y no mielinizados.


Vemos que la intersección de la recta con la parábola ocurre a un valor del
diámetro del nervio cercano a 0.2 µm. Nervios de este diámetro han sido
descritos en el sistema nervioso. Se ha mostrado que entre los nodos de estos
nervios existen solamente dos capas de la membrana de las células de
Schwann. Por lo tanto, estos nervios casi no se distinguen de los nervios no
mielinizados.
Capítulo 7

Sobre cómo se comunican las células entre sí

Tú leíste el título de este capítulo y pasaste los ojos al comienzo de esta parte
del texto. En ese momento, de los ojos hacia el cerebro y en dirección opuesta
fue enviada una gran cantidad de señales.
Tal vez te diste cuenta que iniciamos este capítulo de la misma manera que
el anterior, en el que analizamos cómo se mueven esas señales por los “ca-
bles”-axones. Pero en cualquier tipo de señalización la transmisión de las seña-
les no es el objetivo, sino más bien un medio. Veamos ahora algo más impor-
tante: ¿cómo es que se reciben estas señales?
Antes que nada, habrá que responder a las siguientes preguntas: ¿quién re-
cibe estas señales? ¿cuál es el destinatario que recibe toda esa información? Al
parecer no hay dudas sobre quién envía esas señales, al menos cuando éstas
provienen del medio externo: los “emisores” en este caso son los órganos de
los sentidos, sobre los cuales actúan los factores físicos y/o químicos. Pero si
queremos expresarnos más adecuadamente, habrá que notar que siempre que
nosotros decimos que el cerebro envía una señal a los músculos del ojo, o que
la señal de la retina se transmite al cerebro, en todos estos casos estamos ante
la presencia de la transmisión de la señal de una célula a otra. Así que el fun-
cionamiento complejo del sistema nervioso—la regulación del funcionamiento
de los órganos internos, el control de los movimientos, ya sean simples e in-
conscientes (por ejemplo, la respiración) o los movimientos complicados y
bien definidos de un pintor—todo estos fenómenos se basan en la comunica-
ción entre células. Pero estas células interlocutoras no hablan como cotorras:
cada célula solamente cumple su función y algunas veces realiza varias funcio-
nes.
La variedad de funciones realizadas por este complejo colectivo depende
de dos factores: 1) de cómo están unidas entre sí las células (es decir, la estruc-
tura geométrica del sistema) y 2) de la organización de las conexiones entre las
182

células. Esta última cuestión es precisamente la que vamos a analizar en el


presente capítulo.

Fig.39 El arco reflejo (A), la neurona, las terminales y las sinapsis (B)

¿Qué son las sinapsis?


La respuesta más sencilla del sistema nervioso a un estímulo es un reflejo.
El reflejo es ejecutado por el arco reflejo, la estructura del cual es bastante co-
nocida. En el esquema del arco reflejo (Fig.39) se muestra mediante flechas la
dirección de la propagación de la señal de una célula a otra. Esta ruta parece
unir a las células entre sí con alambritos. En realidad, los “alambritos” son ra-
mificaciones de las células que son parte del arco reflejo. Revisemos con más
detalle la neurona, el elemento mínimo del arco reflejo (Fig.39B). El impulso
nervioso surge en el cuerpo de la célula (puedes encontrar más información so-
bre este proceso en el Capítulo 9) y se propaga por su axón. El axón termina en
un número grande de ramas delgadas, que se llaman terminales. Es precisa-
mente por estas terminales que la señal pasa a otras células-destinatarios: direc-
tamente a sus cuerpos, o, con más frecuencia—a sus “ramificaciones recepto-
ras”—las dendritas. Un axón puede extender hasta 1000 terminales que se
localizan en diferentes células. Por otra parte, una neurona típica de un verte-
brado recibe de 1000 y hasta 10 000 terminales de otras neuronas.
Entonces, de una célula a otra la señal de transmite a través del contacto
“terminal-dendrita” o “terminal-cuerpo de la neurona”. Precisamente este con-
tacto es el que se conoce como sinapsis. Este término fue introducido a la fisio-
logía por el famoso científico inglés Charles Sherrington en el año 1897.
En la zona del contacto no hay una fusión, sino una ruptura
Si analizamos un equipo eléctrico cualquiera, en el lugar del contacto de dos
elementos del circuito eléctrico no ocurre nada excepcional: dos alambritos se
unen entre sí y la manera más fácil de hacerlo es mediante soldadura.
Entre los biólogos que estudiaban el sistema nervioso por mucho tiempo
reinaba la idea de que el cerebro es una red continua, de tal manera que las
células tienen un protoplasma común, es decir, se conectan entre sí como los
vasos sanguíneos. Se pensaba que, por ejemplo, las células de la piel y de los
músculos son células individuales, pero el cerebro era visto como una red sin
células individuales.
Pero, he aquí, en el año 1857 el científico italiano, profesor de histología
en la Universidad de Pavia (donde antes había trabajado A. Volta) Camillo
Golgi inventa un nuevo método de tinción de las células—la reacción cromoar-
géntica. Durante esta reacción (por razones que aún se desconocen) entre miles
de células que se encuentran una al lado de la otra, solamente se tiñe una, pero
con todo y sus ramificaciones.
184

El método de Golgi ayudó en mucho al estudio de la estructura de las neu-


ronas. Su empleo permitió demostrar que a pesar de que en el cerebro las célu-
las se encuentran acopladas de manera muy densa y sus ramificaciones están
entrelazadas, cada célula se encuentra aislada de las demás, es decir, el cerebro
como cualquier otro tejido está compuesto de células individuales, que no están
unidas en una red. Esta conclusión fue realizada por el histólogo español San-
tiago Ramón y Cajal, quien con esto expandió la teoría celular a todo el siste-
ma nervioso. (Es interesante que Golgi, a pesar de haber descubierto el método
que teñía células individuales, defendía la idea de que el tejido cerebral es una
red celular común. Él mantenía esta posición incluso cuando recibió, junto con
Ramón y Cajal, el premio Nobel de Medicina por sus descubrimientos).
El rechazo de la idea de la red común implicaba que en el sistema nervioso
la señal pasa de una célula a otra no a través de un contacto eléctrico directo,
como en los circuitos eléctricos, sino a través de una ruptura, un espacio entre
las células.
Cuando en la biología comenzó a utilizarse el microscopio electrónico, es-
tas ideas de la existencia de una ruptura fueron comprobadas directamente.
Usando esta técnica, fue demostrado que tanto las terminales del axón como el
cuerpo de la célula-receptora tienen sus propias membranas en la zona del con-
tacto. Entre estas membranas hay una ranura de un grosor aproximado de 20
nm.
Pero ¿cómo es que se transmite la señal a través de esta ranura?
¿Qué tipos de sinapsis existen? De nuevo la “gran discusión”
Para cuando fue descubierta la existencia de este tipo de brechas en el circuito
de la “señalización viva” (más de 120 años atrás) ya era bastante obvio que la
transmisión de la señal a través de éstas puede ocurrir solamente de alguna de
las siguientes dos maneras: química o eléctrica. En la discusión sobre cuál de
estos dos mecanismos se realiza en la naturaleza participaron nuestros conoci-
dos: du Bois-Reymond y su discípulo Hermann. Y sus opiniones diferían. Her-
mann consideraba que una célula actúa sobre otra mediante corrientes locales,
mientras que du Bois-Reymond prefería el mecanismo químico.
Veamos las observaciones en las que se basaba esta diferencia de opiniones,
utilizando los conocimientos actuales sobre las sinapsis.
La hipótesis eléctrica consiste en que el impulso nervioso llega hasta la ter-
minal de la célula-emisora y provoca una corriente en el espacio dentro de la
sinapsis, que pasa a la célula-receptora, provocando su excitación.
La hipótesis química puede ser expuesta de la siguiente manera. El impulso
que llega por el axón provoca en el extremo de la terminal la liberación de una
sustancia química (denominada neurotransmisor), que se difunde a través de la
brecha (el espacio sináptico) y llega a la membrana de la célula-receptora (co-
nocida como membrana postsináptica) (Fig.40). Este neurotransmisor cambia

Fig.40 Esquema del funcionamiento de una sinapsis química y una sinapsis


eléctrica. A — terminal axonal, B — membrana presináptica, C — zona de excita-
ción de la terminal, D — brecha sináptica, E — membrana postsináptica, F — neu-
rona-blanco, M — neurotransmisor en la brecha sináptica de la sinapsis química. Las
flechas indican la dirección de las corrientes que fluyen.
186

la permeabilidad de la membrana postsináptica, provocando una corriente que


corre desde el espacio sináptico al cuerpo de la célula a lo largo de la membra-
na de la célula.
Entonces, ¿las sinapsis son “eléctricas” o son “químicas”? Éste fue el tema
de la tercera gran discusión que se presenta en nuestro libro.
Los primeros experimentos, bastante directos, argumentaban a favor de la
hipótesis de la naturaleza química de la transmisión en las sinapsis. El farma-
cólogo alemán Otto Loewi en 1921 estimuló el nervio vago (que disminuye el
ritmo de las contracciones del corazón) de una rana, y recolectó el líquido ex-
tracelular que rodeaba al corazón sobre el que actuaba el nervio mencionado.
Luego aplicó ese líquido al corazón de otra rana. Y en este segundo caso, sin
ninguna estimulación del nervio vago, el corazón de la rana comenzó a latir de
una manera más lenta. Aunque, bueno, en este caso se trataba más bien no de
las sinapsis entre dos neuronas, sino entre el nervio y el músculo cardiaco. El
científico soviético Alexéy V. Kibyakóv demostró en 1933 en experimentos si-
milares, pero ya en neuronas, que un mecanismo similar tiene lugar en las célu-
las del sistema nervioso. Con estos experimentos se podía llegar a la conclu-
sión de que las terminales del nervio excitado pueden liberar alguna sustancia
(el mediador, o neurotransmisor) que puede por sí sola actuar sobre otras neu-
ronas o sobre los músculos.
La hipótesis química cantaba victoria. Algunos de los neurotransmisores,
que al principio eran tan hipotéticos como la membrana celular, fueron extraí-
dos y purificados, y fue determinada su estructura molecular. Con la ayuda de
microelectrodos insertados en la célula-receptora y en el axón, fue determinado
que el tiempo necesario para la liberación del mediador desde la terminal y
para su difusión en el espacio sináptico es de alrededor de 0.6-0.8 ms en ani-
males de sangre caliente.
Parecía que la transmisión química en las sinapsis quedaba comprobada y
que la hipótesis eléctrica no tenía argumentos a favor. Pero ¿cómo se podían
encontrar las sinapsis eléctricas? Quedaba por demostrar que existen sinapsis
que no tienen las características principales de las sinapsis químicas.
La primera característica de este tipo es el retardo, los 0.8 ms que en el
caso de las sinapsis eléctricas no debía presentarse. Otra característica de las
reacciones químicas es su alta dependencia de la temperatura. Mientras más
alta es la temperatura (en cierto rango)—más rápido transcurre la reacción. En
el caso de las sinapsis eléctricas no se esperaba encontrar esta dependencia.
Adicionalmente, durante el estudio de las sinapsis químicas fue demostrado
que para su funcionamiento son necesarios los iones de calcio en el medio ex-
tracelular. El reemplazo del calcio por magnesio bloqueaba la transmisión de
las señales a través de las sinapsis químicas. Y precisamente en 1957 con la
ayuda de microelectrodos fue descubierta una sinapsis en la cual la señal se
transmitía prácticamente sin retardo, con una baja dependencia de la tempera-
tura y que no era bloqueada por la presencia del magnesio en el medio. Es así
como fue descubierta la primera sinapsis eléctrica. Al principio, este descubri-
miento parecía un rasgo particular de los langostinos. Pero luego las sinapsis
eléctricas fueron descubiertas también en peces, gatos, monos…
Hoy en día ya está bien establecido que existen tanto sinapsis químicas
como eléctricas.
Las sinapsis eléctricas existen, pero no pueden existir
Pero las evidencias de una transmisión eléctrica en las sinapsis, obtenidas en
los experimentos con las sinapsis eléctricas, entraron en contradicción con los
cálculos teóricos de aquellos tiempos. Se estableció una situación paradójica:
las sinapsis eléctricas existen, su existencia estaba comprobada mediante expe-
rimentos directos, pero ¡los cálculos demostraban que estas sinapsis no podían
funcionar!

No obstante, como lo demostró la reacción cromoargéntica y luego la mi-


croscopía electrónica, en este caso no hay un contacto directo entre las células:
ellas están separadas por un espacio lleno de líquido, a través del cual la co-
rriente pasa no solo a la célula-receptora sino también hacia fuera, en forma de
fuga. Los cálculos realizados en laboratorios de distintas partes del mundo
arrojaron resultados completamente inesperados. Según estos cálculos, que
utilizaban valores reales de la resistencia de las membranas (obtenidos, por su-
puesto, no para el área de la sinapsis, sino para el axón y el cuerpo de la célu-
la), del medio extracelular y del tamaño de los contactos sinápticos, la célula-
receptora recibía menos del 0.01% de toda la corriente que salía de la terminal.
Además, esta pequeñísima corriente se distribuiría por todo el cuerpo de la cé-
188

lula-receptora y no podía crear un cambio de potencial suficiente para la ex-


citación de esta última, o siquiera algún cambio que fuera comparable con los
cambios registrados en los experimentos.
La búsqueda de una solución a este problema fue iniciada en 1965 por un
grupo de jóvenes colaboradores del Departamento Teórico del Instituto de Bio-
física de Academia de Ciencias de la Unión Soviética.
La primer idea consistía en que tanto la resistencia de la membrana en la
zona de la sinapsis, como la resistencia del medio que se encuentra en el espa-
cio sináptico podían ser diferentes a la resistencia del resto de la membrana y
del medio extracelular, porque los valores utilizados en los cálculos fueron ob-
tenidos en objetos diferentes. Así que en los cálculos que mencionamos se con-
sideraron como valores exactos solamente los que ya se conocían: las dimen-
siones de las sinapsis (con un diámetro de alrededor de 1 µm y un espacio entre
las membranas de aproximadamente 5 nm). Pero además los métodos de cálcu-
lo no eran los más sofisticados.
Para revisar su idea, estos investigadores tenían que repetir los cálculos
para diferentes valores de los parámetros desconocidos (las resistencias de las
membranas sinápticas y del espacio sináptico). Aparte, había que perfeccionar
el método de cálculo, lo que no se lograba hacer de ninguna manera. Entonces
los investigadores decidieron hacer un modelo de una sinapsis (al igual que du
Bois-Reymond hizo el modelo del músculo con los pequeños elementos galvá-
nicos para comprobar la hipótesis de las moléculas electromotrices).
Este trabajo se lo asignaron a un estudiante de posgrado que soldaba los
circuitos para cada nuevo valor de los parámetros, escogiendo los resistores ne-
cesarios, o componiéndolos de los elementos disponibles cuando no se contaba
con la pieza con la característica requerida. El trabajo era muy pesado y avan-
zaba de manera muy lenta. Pero llegó el verano y como era de costumbre en la
Unión Soviética la administración del instituto le solicitó al departamento que
asignara a dos investigadores para que durante un mes realizaran labores de
campo en una cooperativa comunitaria. Nadie quería ir al campo por tanto
tiempo, así que decidieron resolver el asunto de otra manera: irían todos, pero
por un tiempo más corto. Solo era de lamentarse que en el campo no se podían
realizar experimentos y soldar nuevos circuitos.
Donde hay hambre no hay pan duro
Pero olvidarse por cierto tiempo de la soldadora y de los resistores tuvo un
efecto benéfico. Los únicos instrumentos de trabajo con los que se contaban
eran lápices y papel. Así que Vladimir Smolyáninov pudo sustituir el modelo
físico por un modelo matemático, y describió la interacción de todos los facto-
res que caracterizan a la sinapsis mediante funciones matemáticas. Por fin ha-
bía sido encontrado un método exacto de cálculo.
Cuando los científicos regresaron al laboratorio, se pusieron a estudiar el
modelo elaborado usando reglas de cálculo, tablas y toda la tecnología que en
aquel entonces sustituía a las calculadoras y a las computadoras (eran los años
60 del siglo XX). Los resultados de ese análisis a primera vista parecían asom-
brosos.
Por ejemplo, fue determinado que aunque la resistencia de la membrana en
la sinapsis tiene un valor óptimo, cuando la mayor parte de la corriente entraba
en la membrana postsináptica, la efectividad calculada para esa sinapsis seguía
siendo incomparable con la efectividad observada. Si se asumía que la resisten-
cia de la membrana era menor al valor óptimo, entonces aumentaba la fuga a
través del espacio sináptico, y si la resistencia aumentaba—disminuía la co-
rriente que salía de la terminal.
El segundo resultado obtenido era mucho más extraño. Según el modelo
resultaba que la mejor conexión entre las células se presenta… ¡cuando las cé-
lulas se encuentran mejor aisladas unas de otras! La terminal puede excitar a la
célula receptora a través de una sinapsis, cuyo espacio está relleno de una sus-
tancia con una alta resistencia específica (lípidos) solamente cuando la sinapsis
tiene las dimensiones apropiadas: un diámetro de algunos micrómetros y un es-
pacio sináptico muy estrecho. Si lo pensamos bien, este resultado es compren-
sible a nivel cualitativo. Una alta resistencia de la sustancia en el espacio sináp-
tico no va a ofrecer mucha resistencia a la corriente que corre de la terminal a
la célula receptora, porque en esa dirección la capa aislante es delgada, pero si
va a impedir la fuga de la corriente hacia afuera del espacio sináptico, porque
en esa dirección la resistencia de la capa aislante es alta. Como vemos, de nue-
vo la cuestión tenía un vínculo con la geometría. Lo único malo era que las
190

sinapsis con el espacio sináptico relleno de lípidos no se conocían en la natura-


leza.
Un resultado negativo también es resultado
El modelo demostró que la sinapsis eléctrica no puede funcionar cuando la re-
sistencia de la membrana sináptica es igual en toda la superficie. Y entonces
fue realizado el siguiente paso en la única dirección posible: se asumió que la
membrana de la sinapsis no es homogénea en su resistencia, sino que tiene
“ventanas” con una resistencia baja en las áreas centrales y una resistencia alta
en los bordes de las sinapsis.
Esta hipótesis resultó ser cierta. Los métodos perfeccionados de la micros-
copía electrónica en diferentes laboratorios del mundo permitieron descubrir
que efectivamente las sinapsis eléctricas tienen una membrana no homogénea,
pero esta heterogeneidad se crea de una manera especial (que a lo mejor ya no
es tan inesperado para ti): mediante unas proteínas especiales, las conexinas.
Las moléculas de esta proteína están tanto en las terminales como en la mem-
brana de las células receptoras y forman una estructura especial—el conexón,
el cual se conforma de seis moléculas de conexina (científicamente hablando—
un hexámero de estas moléculas) que forman un canal interno. Cuando el axón
llega a la célula receptora, dos conexones de las membranas de células adya-
centes se juntan y en cada una de las membranas se forma un orificio—un ca-
nal, que previamente se encontraba cerrado (este es un proceso similar a cuan-
do se abren las compuertas entre los módulos de una estación espacial). Estos
canales constituyen una resistencia muy baja al paso de los iones. Y en las si-
napsis eléctricas hay muchos conexones. Esta es la manera en la que las sinap-
sis eléctricas unen a dos células mediante canales muy delgados de un diámetro
de 1-1.5 nm que se forman en el interior de las moléculas de proteínas (Fig.41).
Desviémonos un poco de nuestro relato. ¿Qué papel jugó en nuestro caso el
modelo matemático de la sinapsis? La situación en este caso es algo paradóji-
ca.
Si se hubieran podido encontrar los parámetros que correspondiesen a la
transmisión de la corriente en las sinapsis reales, es decir, si el modelo corres-
pondiera a los datos experimentales, entonces el resultado no sería tan valioso.
Este resultado significaría que la estructura de la sinapsis eléctrica puede co-
rresponder al modelo (porque el modelo interpreta bien los resultados experi-
mentales), pero también podía implicar que las sinapsis están formadas de

Fig.41 Estructura de la sinapsis eléctrica y el axón gigante de la lombriz de tie-


rra con sinapsis eléctricas. A — estructura de la sinapsis eléctrica (se muestran los
conexones, formados por dos moléculas, una de las cuales se encuentran en la mem-
brana del axón y la otra — en la célula blanco), B — conexón compuesto de subuni-
dades (el canal está cerrado), C — el desplazamiento de las subunidades lleva a la
apertura del canal, D — sistema de neuronas de una lombriz de tierra, que forman
un axón gigante; se muestran los componentes individuales.
192

otra manera (una interpretación alternativa que aún se desconocía). Es posible


que existan decenas de modelos que interpreten bien los resultados experimen-
tales. Pero un resultado negativo de un modelo es un resultado absoluto. Este
tipo de resultados nos dice que la estructura del sistema no corresponde a nues-
tras aproximaciones matemáticas, por lo que es necesario buscar una solución
diferente. Este es el valor de los resultados negativos de los modelos matemáti-
cos de los sistemas más diversos.

Es interesante que el segundo resultado del estudio de las sinapsis eléctri-


cas, a pesar de su incongruencia, también fue comprobado experimentalmente.
Efectivamente, la naturaleza rellena el espacio sináptico con un material aislan-
te. En las aves, en la cadena de neuronas que regula la respuesta de la pupila a
la luz fue descubierta una sinapsis de un diámetro bastante grande (con un área
de cerca de 1000 µm2), cuyo espacio sináptico está relleno de mielina, es decir,
de un aislante. Para esta sinapsis tan grande esta técnica es bastante efectiva,
tal y como lo predice el modelo. De esta manera en la naturaleza efectivamente
se utilizan tanto el rellenado del espacio sináptico con material aislante, como
las membranas no homogéneas.
Las sinapsis químicas
A diferencia de las sinapsis eléctricas, que de una manera u otra funcionan
como continuaciones de un circuito eléctrico para la señal, las sinapsis quími-
cas son verdaderas “rupturas” entre las células: una señal eléctrica no podrá pa-
sar directamente a través de una sinapsis química.
Veamos el ejemplo del funcionamiento de la sinapsis neuro-muscular.
Como ya sabes, la membrana del músculo es excitable: si la tocamos con un
electrodo, el músculo se contraerá. Pero resulta que existe una excepción para-
dójica: precisamente el lugar de la membrana por donde la señal eléctrica de
las motoneuronas pasa al músculo, esa pequeña área de la membrana ¡es insen-
sible a la estimulación eléctrica! Y es que la motoneurona actúa sobre el mús-
culo de una manera completamente diferente: en sus terminales la señal eléctri-
ca se transforma en una señal química.
Nosotros ya describimos el esquema del funcionamiento de la sinapsis quí-
mica. Cuando el impulso nervioso llega hasta la terminal de la motoneurona,
bajo su efecto se libera al espacio sináptico una sustancia especial—el media-
dor o neurotransmisor. En las sinapsis neuro-musculares de los vertebrados
este agente es la acetilcolina. La membrana postsináptica es sensible preci-
samente a esta sustancia. Es suficiente acercar a la zona de la sinapsis una pi-
peta con solución de acetilcolina y liberar un poco de esta sustancia al medio,
para que en el músculo surja una despolarización, que será mayor mientras más
acetilcolina se haya liberado. Si estos cambios de potencial alcanzan el umbral
de excitación de una membrana excitable, surge un PA y la fibra muscular se
contrae.
La liberación del neurotransmisor
En 1950, los científicos ingleses Paul Fatt y Bernard Katz, examinando el fun-
cionamiento de la sinapsis neuro-muscular de la rana, descubrieron que, aun
estando el nervio en reposo, en el área de la membrana postsináptica surgían de
manera espontánea pequeñas oscilaciones de potencial que tenían una regulari-
dad variable y una magnitud de alrededor de 0.5 mV. Estos pequeños potencia-
les recibieron el nombre de “potenciales miniatura”. Cuando Fatt y Katz apli-
caron a la sinapsis el veneno botulínico (el cual bloquea la liberación de la ace-
tilcolina de las terminales) estos potenciales miniatura desaparecieron.
De esta observación se concluyó que en una sinapsis química el mediador
se libera incluso en condiciones de reposo, pero solo en pequeñas cantidades
determinadas, en “cuantos” o pequeñas cantidades discretas.
Para ese entonces la microscopía electrónica ya había permitido conocer
los detalles de la estructura de las sinapsis. En particular, ya se sabía que en las
terminales presinápticas existen unas vesículas de un diámetro aproximado de
500 nm. A veces se llegaba a observar que la membrana de esas vesículas esta-
ba fusionada con la membrana presináptica. Katz supuso que los potenciales
miniatura surgían precisamente cuando una de esas vesículas se fusionaba con
la membrana presináptica, liberando su contenido de acetilcolina al espacio si-
náptico. Esta hipótesis fue parcialmente comprobada por los citólogos, quienes
pudieron extraer las vesículas y demostraron que, efectivamente, éstas almace-
naban la acetilcolina (aproximadamente 10 000 moléculas por vesícula).
Entonces, en condiciones de reposo, cuando la motoneurona no está excita-
da, en la sinapsis existe un pequeño ruido eléctrico: la liberación ocasional de
194

la acetilcolina provoca el surgimiento de potenciales miniatura; su frecuencia


promedio es de un potencial miniatura por segundo. Pero la magnitud de esos
potenciales individuales es muy pequeña (0.5 mV), y por eso el músculo no se
excita (recordemos que el umbral de excitación es de 15-20 mV). Pero cuando
a la terminal de la motoneurona se acerca un PA, éste provoca la liberación
masiva de vesículas: en 0.1 ms se libera el contenido de alrededor de 100 ve-
sículas (es decir, como un millón de veces más que en condiciones reposo).
Como resultado, en el músculo surge una despolarización de 30-50 mV, bas-
tante superior al valor umbral.
Era natural revisar cómo influye el cambio de potencial de la terminal en la
incidencia de los potenciales miniatura, es decir, en la frecuencia de la libera-
ción de la acetilcolina. En estos experimentos fue determinado que, durante la
despolarización, la frecuencia de la liberación de vesículas desde la terminal
aumenta de manera exponencial (10 veces por cada 15 mV de despolariza-
ción). Este hecho explica por qué bajo el efecto del potencial de acción se libe-
ra tanta acetilcolina.
Pero, como siempre, esta respuesta generó nuevas preguntas: ¿por qué la
despolarización facilita que las vesículas empiecen a fusionarse (a “pegarse”)
con más frecuencia a la membrana?
Mediante una serie de experimentos fue determinado que los “culpables”
del incremento de la frecuencia de la liberación del neurotransmisor son los io-
nes de calcio. En la terminal presináptica hay canales de calcio sensibles al vol-
taje que se abren durante la despolarización de la terminal y el calcio se difun-
de a su interior.
Este proceso fue demostrado de una manera muy elegante en 1972 por Ro-
dolfo Llinás y sus colaboradores en una sinapsis gigante de calamar al interior
de la cual tenían la oportunidad de inyectar diferentes sustancias. Existe una
sustancia especial—la aequorina (una proteína que se encuentra en algunas me-
dusas), la cual durante el contacto con los iones de calcio emite luz visible. Lli-
nás y sus colaboradores introdujeron aequorina en la terminal presináptica, y
cuando el impulso nervioso se acercaba, la terminal se iluminaba mostrando de
esta manera que los iones de calcio habían entrado al citoplasma. Pero los cien-
tíficos no se limitaron a la bonita ilustración de estos datos que para aquel en-
tonces ya se conocían, y realizaron un nuevo experimento que permitió obtener
un resultado muy importante. Ellos inyectaron con un microelectrodo una
solución de iones de calcio a la terminal y en ese preciso momento, sin ninguna
despolarización, comenzó la liberación del neurotransmisor.
Entonces, la causa de la liberación del mediador no es la despolarización
en sí. Más bien, la despolarización les abre paso a los iones de calcio al interior
de la terminal. Y si eliminamos los iones de calcio del medio exterior, enton-
ces, como muestran los experimentos, las sinapsis químicas dejan de funcionar
incluso a potenciales despolarizantes muy altos, y también desaparecen los po-
tenciales miniatura.

Fig.42 Estructura de la sinapsis química (A) y su esquema eléctrico equivalente


(B): a — terminal axonal, b — brecha sináptica que separa al abultamiento de la ter-
minal axonal de la célula-blanco (en azul), c — canales de calcio. En el interior del
abultamiento se observan las vesículas que contienen el neurotransmisor (v), y las
mitocondrias (m). En la membrana postsináptica se encuentran las moléculas de los
receptores, cuyos canales se abren bajo el efecto del neurotransmisor. En B: C — ca-

tsináptica que aumenta bajo el efecto del neurotransmisor.

Pero hay otra cuestión importante: ¿por qué después de que el calcio entra al
interior de la terminal el neurotransmisor se libera solamente por un tiempo
muy corto y luego su liberación se interrumpe? Los canales de calcio de la ter-
minal se abren tan solo por un instante, pero durante ese tiempo la concentra-
196

ción de calcio en la terminal aumenta miles de veces. ¿A dónde se va todo ese


calcio? Como fue determinado en experimentos posteriores, los iones de calcio
son bombeados hacia el medio exterior por las bombas de calcio, pero también
son secuestrados por las mitocondrias que siempre están presentes en las
terminales sinápticas (Fig.42A).
Luego de esos trabajos fue determinado el mecanismo de acción de algunas
toxinas. Por ejemplo, del veneno de la araña viuda negra europea fue extraída
la proteína latrotoxina, que constituye, a grandes rasgos, un canal de calcio que
nunca se cierra (“constitutivamente abierto”). Esta proteína se integra a la
membrana presináptica y permite el paso libre a los iones de calcio. Como re-
sultado, todas las reservas de acetilcolina se agotan y el sistema nervioso ya no
puede provocar la contracción de los músculos.
Pero ¿qué hace el calcio una vez que entra a la terminal? La respuesta fue
obtenida en los últimos años del siglo XX-principios de nuestro siglo. La entra-
da del Ca2+ es percibida por un sensor de Ca2+—la sinaptotagmina. Esta proteí-
na es parte del complejo SNARE responsable de la fusión de las vesículas con
la membrana postsináptica. Puedes leer más acerca del proceso de fusión en
https://es.wikipedia.org/wiki/SNARE_(prote%C3%ADna).
El funcionamiento de la membrana postsináptica

¿Y qué es lo que hace la acetilcolina en la membrana postsináptica, hacia la


cual difunde? En condiciones de reposos la resistencia específica de la mem-
brana postsináptica es de alrededor de 3000 Ohm∙cm2. Este hecho enseguida
nos hace pensar que la acetilcolina provoca la apertura de unos canales en la
membrana postsináptica. Y esta idea es correcta.
En la membrana postsináptica se encuentran unos canales cuyas compuer-
tas se controlan no por el potencial de membrana, sino por la acetilcolina. Tan-
to el canal como las compuertas son parte de una molécula con una estructura
bastante complicada—el receptor de acetilcolina. Uno de los extremos de esa
molécula, que se asoma al espacio sináptico, “reconoce” las moléculas de ace-
tilcolina. Cuando al receptor se unen dos moléculas de acetilcolina, se abre un
canal a través del cual pueden pasar iones de K+ y Na+. En otras palabras, en la
membrana se abre un orificio “eléctrico”, con las consecuencia correspondiente
—la despolarización de la membrana.
La siguiente pregunta natural es: ¿por qué luego desaparece esa despolariza-
ción? Porque la activación de la sinapsis química por lo general no es muy pro-
longada. Esto significa que algo le pasa a la acetilcolina que abre los canales en
la membrana postsináptica, y se elimina de alguna manera. Resulta que la ace-
tilcolina se une al receptor por muy poco tiempo: en cuanto el canal se abre, la
acetilcolina se desprende del receptor y se va de nuevo al espacio sináptico. Y
en este espacio hay una enzima especial (la acetilcolinesterasa), que destruye a
este neurotransmisor. De esta manera, el neurotransmisor realiza su trabajo y
se retira de manera muy rápida. Es precisamente esta característica la que de-
termina que el tiempo de acción de las sinapsis químicas sea bastante corto.
Existen también otras sustancias químicas que pueden adherirse al receptor
de acetilcolina, pero con mayor fuerza (o, empleando el término correcto—con
una mayor afinidad) que la acetilcolina. Por ejemplo, el veneno vegetal curare,
con el cual los indígenas untan sus flechas, una vez que se penetra al organis-
mo se une fuertemente a los receptores de acetilcolina y ocupa los sitios de
unión de esta última. Como resultado, la acetilcolina no puede abrir las com-
puertas de los canales y cualquier movimiento (incluyendo los respiratorios) se
vuelven imposibles. Éste también es el principio de acción de algunos venenos
de serpiente, por ejemplo, el veneno de las serpientes de la familia de las Ela-
pidae (cobras y sus familiares). Es interesante, que tanto en plantas como en
serpientes durante la evolución aparecieron venenos con un mecanismo de ac-
ción muy parecido. Sustancias similares al curare, algunos relajantes, ahora son
utilizadas en la medicina en ciertas cirugías para relajar los músculos. (El pa-
ciente en este caso se encuentra bajo narcosis y respiración artificial, pero no
puede realizar algún movimiento impredecible que pueda obstaculizar el traba-
jo del cirujano).
Ahora ya conocemos muchos detalles de la estructura y el funcionamiento
de esta “máquina molecular”—el receptor de acetilcolina. El receptor está
compuesto de cinco subunidades-fragmentos. El estudio de la secuencia de
aminoácidos de esas subunidades demostró que todas ellas provienen de la mo-
dificación de un mismo gen. Juntándose entre sí, estas subunidades forman un
canal en el centro. (Seguramente recordarás cómo en los conexones el canal
central es formado de una manera similar por seis subunidades.) En el caso del
receptor de acetilcolina, el canal tiene una sección que en su forma se aproxima
198

a un cuadrado con el lado de aproximadamente 0.65 nm de largo. Este canal no


distingue entre los iones de K+ y Na+, pero no les permite el paso a los aniones.
Las compuertas del canal se abren por un tiempo de distinta duración (en con-
diciones del PR a 20°C este tiempo en promedio es igual a 1 ms). La conduc-
tancia de este canal es aproximadamente 3∙10−11 S. El largo de un canal de este
tipo es 5-6 veces mayor al grosor de la membrana, por lo que la proteína se
“asoma” pronunciadamente tanto al exterior como al interior de la célula. La
acetilcolina liberada por una de las vesículas abre aproximadamente 2000 ca-
nales.
¿Qué sinapsis son las mejores, las químicas o las eléctricas?
De nuestro relato tú ya pudiste observar que la estructura de las sinapsis eléc-
tricas es bastante sencilla, y que las sinapsis químicas son un poco más com-
plejas (hasta ahora solo hemos examinado sol uno de los tipo de sinapsis quí-
micas—la sinapsis neuro-muscular). ¿Cómo es que se dividen las tareas estos
dos tipos de sinapsis? Casi siempre en el organismo estas sinapsis son utiliza-
das en los circuitos nerviosos en los que sus propiedades traen los mayores be-
neficios.
Una de las características más notables de las sinapsis eléctricas es la rapi-
dez de su respuesta (en la sinapsis química cierto tiempo lo toma la liberación
del mediador y su difusión hacia el espacio sináptico). Entonces, es natural que
las sinapsis eléctricas se encuentren en aquellos circuitos nerviosos que partici-
pan en las respuestas inmediatas del organismo—la retirada brusca del cuerpo,
las respuestas de escape.
Por ejemplo, el cuerpo de las lombrices de tierra es recorrido por unos
“axones” gigantes, con un diámetro que alcanza los 60 µm, lo que es un valor
muy grande para una lombriz de tierra. Como podemos ver, estos filamentos
no son tan gruesos como los del calamar, y además tienen otra estructura. En
realidad, estos nervios no son axones como tales, es decir no corresponden a
alguna ramificación de una sola célula. Este “axón” está compuesto de muchos
fragmentos cilíndricos. En cada segmento del cuerpo hay una célula nerviosa
cuyo crecimiento forma un segmento de nervio. Las células de cada segmento
crecen y se comunican con las células de los segmentos vecinos formando co-
nexones, de tal manera que se obtiene un cable segmentado, con los segmentos
conectados entre sí mediante conexones (Fig.41D). Como resultado, el impulso
nervioso corre por ese axón fragmentado simplemente como si se propagara a
lo largo de un cable grueso. Estos filamentos nerviosos le permiten a la
lombriz de tierra contraer su cuerpo de manera muy rápida en caso de peligro,
y esconderse en sus caminos en la tierra. Si la lombriz tuviera sinapsis quími-
cas entre sus segmentos, esta reacción duraría unas cuantas décimas de segun-
do, porque el retardo en las sinapsis químicas es de varios milisegundos y en
cada filamento puede haber decenas o centenas de segmentos. En cambio, en
las sinapsis eléctricas el retardo es de 0.01 ms. Como podemos ver, el empleo
de sinapsis eléctricas en este caso es de vital importancia. Unos “axones” simi-
lares a estos también los tienen los langostinos: cuando el peligro se acerca por
delante, estos filamentos transmiten de manera rápida la señal que provoca un
movimiento brusco de la cola y el rápido desplazamiento del langostino hacia
atrás, lejos del peligro. Las sinapsis eléctricas también pueden ser encontradas
en los sistemas de huida de ciertas medusas, moluscos, peces, y en otros ani-
males.
La segunda propiedad característica de las sinapsis eléctricas es que pue-
den conducir la señal en ambas direcciones, es decir, son simétricas.39 Esta pro-
piedad puede servir para la sincronización, es decir, para que las neuronas co-
nectadas por las sinapsis eléctricas puedan excitarse al mismo tiempo. Estos
sistemas de sincronización son muy comunes en la naturaleza. En los casos
más simples, estos constan tan solo de dos células; la unión de esas células a
través de una sinapsis eléctrica resulta en una excitación prácticamente simul-
tánea de ambas células nerviosas. Por ejemplo, en los siluros eléctricos (Ma-
lapterurus electricus), este sistema de dos neuronas permite la descarga simul-
tánea de los dos órganos eléctricos que se encuentran a los costados del pez. En
otro pez, que puede emitir sonidos provocados por la contracción de la vejiga
natatoria (estos sonidos son muy parecidos al croar de una rana, por lo que el

39
Por otro lado, existen también sinapsis eléctricas con propiedades rectificadoras, es de-
cir que conducen la corriente en un solo sentido. Por pura casualidad, la primer sinapsis
eléctrica descubierta en 1957 era precisamente de este tipo. Pero más adelante los inves-
tigadores se dieron cuenta de que este tipo de sinapsis eléctricas es bastante raro. Para te-
ner un panorama completo también hay que mencionar que existen también sinapsis quí-
micas simétricas, es decir—aquellas en las cuales las vesículas se pueden liberar desde
ambas membranas de la sinapsis.
200

pez fue llamado pez-sapo) todas las células que controlan los músculos de la
vejiga natatoria (en este caso son varias decenas) están conectadas entre sí a
través de sinapsis eléctricas, lo que les permite excitarse a todas de manera casi
simultánea.
Las sinapsis eléctricas también están son “muy populares” entre los inver-
tebrados y los vertebrados más primitivos (de la clase Cyclostomata, y entre
los peces). La enorme mayoría de las sinapsis de los vertebrados superiores son
sinapsis químicas. El uso de este tipo de sinapsis está relacionado con sus ca-
racterísticas principales—la transformación de la señal eléctrica en química, y
de la química en eléctrica. En estas sinapsis los impulsos eléctricos iguales
pueden provocar la liberación de diversas sustancias neurotransmisoras. Por
ejemplo, en las sinapsis neuromusculares de los anélidos también se emplea la
acetilcolina como neurotransmisor, mientras que los artrópodos (por ejemplo,
los insectos) que evolucionaron de los anélidos, utilizan en sus sinapsis otro
tipo de neurotransmisor—el glutamato. Por otra parte, en una sinapsis química
un mismo neurotransmisor en células diferentes puede provocar la apertura de
diferentes canales. Por ejemplo, la acetilcolina en unos casos provoca la aper-
tura solamente de los canales de sodio o los de potasio, mientras que en otros
casos provoca la apertura de canales no selectivos (permeables tanto para so-
dio, como potasio), y en otros casos provoca la apertura solamente de canales
de cloro. Es decir, una sinapsis química puede tener funciones más complejas
que una sinapsis eléctrica. Por ejemplo, uno de los fenómenos más importantes
de la neurofisiología—la inhibición, prácticamente siempre es mediada por una
sinapsis química.40
La sinapsis química y la inhibición

Se sabe que las personas pueden por su propia voluntad detener la ejecución de
un reflejo innato. Por ejemplo, existe un reflejo cuando retiramos bruscamente
la mano al tocar algo caliente, o cuando nos picamos, etc. Pero también se co-
noce el ejemplo del héroe romano Mucio Escévola quien prefirió poner su
mano en un brasero y no la retiró, aguantando el dolor. Cada uno de nosotros
40
Con ayuda de ciertos “trucos” se puede hacer una sinapsis eléctrica de inhibición. Y,
efectivamente, este tipo de sinapsis ha sido encontrado en el bulbo raquídeo de algunos
peces. Pero en la célula-receptora no debe haber muchas de estas sinapsis, y, además, su
estructura es bastante compleja.
detiene el reflejo del retirar bruscamente la mano cuando le toman una muestra
de sangre para un análisis. En formas menos obvias, esta inhibición se expresa
más en cualquier acto de conducta, incluyendo los movimientos involuntarios
(por ejemplo, cuando los músculos flexores se contraen, los músculos deflexo-
res se inhiben automáticamente), la inhibición también participa en la regula-
ción de los órganos internos (por ejemplo, durante el sueño el corazón humano
late de manera más lenta).
Entonces, ¿qué es la inhibición?, ¿cuáles son sus orígenes? Para empezar,
bajo inhibición entendemos un proceso activo, y no simplemente una ausencia
de excitación. Una célula es inhibida cuando existe algún mecanismo que
impide su excitación. Si recordamos en qué consiste la excitación, será fácil
entender de qué se trata este mecanismo. Nosotros ya sabemos que una neuro-
na o un filamento nervioso se excitan cuando se despolariza su membrana (es
decir, el potencial de la membrana se aleja del potencial de reposo y se acerca
al cero). Entonces, un cambio del potencial de la membrana en dirección
opuesta (por ejemplo, de −75 mV a −80 mV) resultará en una inhibición: esta
célula será más difícil de excitar, ya que se necesitará un estímulo de mayor in-
tensidad para que su potencial de membrana alcance el potencial umbral de ex-
citación.
¿Cómo podemos hiperpolarizar, o inhibir, a una célula? Recordemos de
nuevo qué condiciones tenemos dentro y fuera de la célula (lo vimos en el Ca-
pítulo 3). Para provocar la inhibición de una célula, será necesario ya sea au-
mentar la permeabilidad de la membrana para los iones de potasio, que con su
salida irán sacando la carga positiva del interior de la célula, o aumentar la per-
meabilidad de la membrana para los iones de cloro, que son muy abundantes
en el medio externo. El transporte de los iones de cloro cargados negativamen-
te al interior de la célula produce el mismo efecto que la salida de los iones po-
sitivos de potasio desde la célula.
En el sistema nervioso se pueden encontrar sinapsis inhibidoras que utili-
zan tanto el mecanismo del potasio como el del cloro. Generalmente, en estos
casos se utilizan unos neurotransmisores inhibidores especiales, que controlan
las compuertas de los canales respectivos. Por ejemplo, en los vertebrados
existen dos neurotransmisores de inhibición—el aminoácido glicina y el ácido
202

γ-aminobutírico, que principalmente inducen la apertura de canales de cloro en


la membrana plasmática. (El efecto de una toxina tan potente como la estricni-
na se basa en que esta sustancia se une a los receptores de glicina, bloqueando
muchas de las sinapsis inhibidoras de la médula dorsal; esto provoca fuertes
convulsiones musculares y la muerte por parálisis muscular.) Es interesante
que el ácido γ-aminobutírico actúa como neurotransmisor inhibidor no sola-
mente en los vertebrados, sino también en los artrópodos.
Existen también otros métodos de inhibición. Por ejemplo, se sabe que el
nervio vago inhibe las contracciones del corazón. Al principio de este capítulo,
nosotros ya mencionamos cómo, utilizando este sistema, O. Loewi por primera
vez comprobó la existencia de las sinapsis químicas. Las terminales del nervio
vago también liberan acetilcolina, tal como ocurre en las sinapsis que inducen
la contracción de los músculos esqueléticos, solo que en el caso del corazón
este neurotransmisor provoca una inhibición. En este caso, la acetilcolina no
actúa directamente sobre las compuertas del canal, sino que se une a unos re-
ceptores especiales que cambian el metabolismo de las células cardíacas.
Como resultado de una serie de reacciones bioquímicas surge una sustancia es-
pecial—el guanosín monosfofato cíclico (cGMP), que es la que activa por den-
tro las compuertas de los canales de potasio. Este tipo de sinapsis recibió el
nombre de “sinapsis metabólicas”.
Entonces, en las sinapsis químicas diferentes neurotransmisores pueden in-
ducir la apertura de diferentes tipos de canales. Si esta apertura provoca la des-
polarización de la membrana, esta sinapsis es excitadora, si la apertura de estos
canales trae consigo la hiperpolarización de la célula, entonces la sinapsis es
inhibidora.
Acerca de la magnitud de los potenciales sinápticos
Arriba examinamos los principios del funcionamiento de las sinapsis excitado-
ras e inhibidoras. Veamos ahora cómo podemos evaluar cuantitativamente el
efecto de las sinapsis químicas.

De nuestro relato sobre el potencial de reposo y sobre el potencial de ac-


ción tú ya sabes que cada ion tiene su potencial de equilibrio, en el cual el nú-
mero de iones que entra a la célula se iguala al número de aquellos que salen.
En condiciones de reposo, el potencial de equilibrio para los iones de potasio
es aproximadamente igual a −80 mV. Durante la excitación, cuando se abren
principalmente los canales de sodio, el potencial de equilibrio para el sodio es
aproximadamente igual a +40 mV. La membrana postsináptica también tiene
su potencial de equilibrio. La magnitud de éste depende de los tipos de iones a
los que es permeable la membrana. Por ejemplo, la membrana postináptica de
una sinapsis excitadora (los canales de la cual permiten el paso a los iones de
sodio y de potasio en proporciones iguales) tiene un potencial de equilibrio
cuyo valor es exactamente la mitad de los potenciales de Nernst para el potasio
y el sodio: (−80 + 40) / 2 = −20 mV. En el caso de la sinapsis inhibidora, per-
meable para iones de cloro, el potencial de equilibrio es aproximadamente
igual a −80 mV.
Mientras el neurotransmisor no actúe sobre la membrana postsináptica, sus
canales estarán cerrados y la corriente no fluirá a través de ella. Cuando el neu-
rotransmisor entra en acción, se abren los canales, y fluyen mejor aquellos io-
nes cuyo potencial de equilibrio está más alejado del potencial de la membra-
na. Entonces, podemos decir que en el área de la membrana postsináptica co-
mienza a funcionar una fuente de alimentación de un voltaje igual a ,
es el potencial de equilibrio de la membrana postsináptica, y es el
potencial de la membrana celular al momento del registro. Si el potencial de la
membrana de una sinapsis es igual al potencial de equilibrio de los iones que
fluyen a través de la membrana sináptica, cuando se abran los canales, no fluirá
corriente alguna a través de ellos.

Revisemos ahora el esquema eléctrico equivalente de una neurona con una


sinapsis que actúa sobre ella (Fig.42B). Cuando se libera el neurotransmisor,
comienza a fluir una corriente cuya intensidad, según la ley de Ohm, es igual a:

. (7.1)

Acá es la resistencia de la
sinapsis (es decir, de la membrana postsináptica y del espacio sináptico). Esta
corriente crea una caída de potencial en la resistencia de la membrana extrasi-
náptica igual a:
204

. (7.2)

Este cambio de potencial se llama potencial postsináptico. Si la sinapsis es ex-


citadora, el cambio de potencial recibe el nombre de potencial postsináptico
excitador (PPE), pero si la sinapsis es inhibidora el cambio de potencial obtie-
ne el nombre de potencial postsináptico inhibidor (PPI).
Intentemos evaluar la magnitud de un PPE originado en la sinapsis de una
motoneurona.41 El potencial de equilibrio de esta sinapsis está en el rango de
los −20 mV. La resistencia de la membrana de las motoneuronas es aproxima-
damente igual a 107 MOhm. La resistencia de una sinapsis promedio con un
área de 1 µm2 es aproximadamente igual a 1012 Ohm. Entonces

mV. Como podemos observar, una sola

sinapsis provoca un cambio de potencial muy pequeño en comparación con el


umbral de excitación de 10-15 mV. Entonces, para que una motoneurona se
excite, sobre ella tienen que actuar muchas sinapsis.
Nuestra ecuación (7.2) es válida para corrientes sinápticas de larga dura-
ción, cuando todas las capacitancias alcanzan a cargarse y pueden ser ignora-
das. Pero en el caso de corrientes sinápticas de corta duración debe ser tomada
en cuenta la capacitancia de la membrana.
Estructuras similares a las sinapsis
Estructuras similares a las sinapsis, tanto a las químicas como las eléctricas,
juegan un papel muy importante en el funcionamiento de diferentes tejidos y
órganos.
Por ejemplo, las células del corazón en diferentes animales se conectan
mediante canales de la misma conexina que forma los canales en las sinapsis
eléctricas. (En este caso, el área de contacto de las células se denomina contac-
to de alta permeabilidad, y no sinapsis; la sinapsis es un contacto de por lo me-
nos una neurona con otra neurona, o con otro tipo de célula.) Como resultado,

41
Una motoneurona es una neurona que controla el movimiento, es decir la contracción
de un músculo.
la señal eléctrica se propaga por el músculo cardiaco de una célula a otra gra-
cias a las ya conocidas corrientes locales, que también participan en la propa-
gación del PA en el “axón” de la lombriz de tierra. Mediante conexones se
unen también entre sí las células de los músculos lisos de diferentes órganos
internos (del estómago, del intestino, de las paredes de los vasos sanguíneos y
otros).
Pero esto no es lo más impresionante, porque todos los tejidos menciona-
dos son excitables y en ellos se propagan las señales eléctricas. Lo más asom-
broso fue el descubrimiento realizado por el biólogo estadounidense Werner
Loewenstein y por investigadores del Laboratorio de Biología Molecular de la
Universidad Estatal de Moscú de que las células no excitables de diferentes ór-
ganos (de los epitelios, de las glándulas, del hígado y otros) también se conec-
tan entre sí mediante contactos de alta permeabilidad, lo que permite balancear
y mantener el potencial de reposo de las células vecinas.
El estudio de los contactos de alta permeabilidad demostró que los conexo-
nes no son uniones estables, sino dinámicas: los canales formados por las cone-
xinas pueden abrirse y cerrarse bajo el efecto de diferentes factores (como son
la concentración de iones de calcio o hidrógeno, o bajo el efecto de la diferen-
cia de potenciales entre las células adyacentes conectadas por los canales). El
mecanismo molecular del cierre de los canales ya se conoce. Las 6 subunida-
des del conexón pueden moverse una respecto a otra (Fig.41B), provocando el
cierre del canal (de manera similar a algunos de los diafragmas mecánicos de
las cámaras fotográficas).
¿Para qué necesitan cerrarse los conexones? Veamos un ejemplo. Por lo
general, en el citoplasma de las células hay muy poco calcio libre (10−7-10−8
moles). Por una serie de razones, una mayor concentración de calcio libre en el
citoplasma provoca la muerte de la célula, y por eso las células tienen varios
mecanismos de defensa: el exceso de calcio es retirado del citoplasma median-
te las bombas, es absorbido por las mitocondrias, etc. Imaginemos ahora que
en un sistema de células interconectadas alguna de ellas fue severamente daña-
da (por ejemplo, su membrana fue perforada). Los mecanismos de defensa en
este caso no pueden eliminar el exceso de calcio que llega del medio extra-
celular y la célula muere. Pero cuando en el interior de esa célula el calcio se
206

acerca al área de los conexones, estos se cierran desconectando a las células


vecinas de la célula dañada. Este tipo de construcción recuerda el sistema de
compartimentos interiores en los barcos: cuando la pared de uno de ellos es da-
ñada y el agua comienza a entrar, automáticamente se cierran las compuertas
de los otros, previniendo el hundimiento del barco. En los sistemas celulares
este tipo de estructuras también determinan su capacidad de supervivencia. Por
ejemplo, el corazón puede ser considerado como un sistema de células que es-
tán directamente conectadas entre sí, y el daño de alguna de ellas podría expan-
dirse hacia otras células. Pero como dijo un científico muy famoso: “las células
del corazón trabajan en conjunto, pero mueren por separado”. Ahora ya sabe-
mos que esto es posible precisamente gracias a las propiedades de los conexo-
nes.
Pero el comportamiento dinámico de los conexones es importante no solo
para la supervivencia. Estas estructuras fueron encontradas en etapas muy tem-
pranas del desarrollo en los embriones de diferentes animales (desde erizos de
mar hasta los vertebrados). Los conexones conectan entre sí a las células que
surgen en las primeras divisiones del óvulo, y luego desaparecen y aparecen
varias veces en el transcurso del desarrollo. De esta manera se alternan los pe-
ríodos cuando las células influyen unas a otras con algunas sustancias, o las di-
ferentes partes del embrión se aíslan unas de otras, permitiendo el desarrollo de
tejidos uniformes en esas zonas diferentes. Luego esas zonas homogéneas de
nuevo se conectan con los tejidos vecinos y todos esos cambios en los contac-
tos juegan un papel importante en la regulación del desarrollo normal.
Todo lo que averiguamos sobre los contactos de alta permeabilidad nos
puede llevar a la idea de que la transmisión de señales en las sinapsis eléctricas
es como una “segunda profesión” de una estructura que juega un papel más ge-
neral y fundamental en el desarrollo de los organismos y en el funcionamiento
de sus tejidos.
Una situación parecida ocurre con las sinapsis químicas. El principio de su
funcionamiento es utilizado en los organismos no solo para la transmisión de la
información, sino también para otros propósitos. Por ejemplo, diferentes célu-
las secretoras utilizan iones de calcio para regular el proceso de secreción (al
igual que en las sinapsis químicas, donde el calcio es utilizado para la secre-
ción del neurotransmisor). Aparte, las células de muchas de las glándulas son
eléctricamente excitables.
Veamos, por ejemplo, el funcionamiento de las células del páncreas (las
llamadas células beta), las responsables de la síntesis de la insulina que regula
la concentración de la glucosa en la sangre. En la superficie de esas células hay
unos receptores especiales que reaccionan a la glucosa. Si la concentración de
la glucosa es mayor a la normal, el receptor provoca el cierre de los canales de
potasio, por lo que las células se despolarizan y generan potenciales de acción.
Estos potenciales de acción son provocados por la apertura de canales de cal-
cio. La entrada del calcio a las células provoca la liberación de insulina a la
sangre, de una manera similar a la liberación del mediador en las terminales
nerviosas. El papel del calcio en la liberación de otras sustancias, entre ellas
hormonas, también ha sido demostrado para otras glándulas.
La neurona es una célula
Con estas palabras queremos decir que las propiedades exclusivas de las neuro-
nas son una modificación de las propiedades características de las células co-
munes. Durante la selección natural, las máquinas moleculares y las estructuras
celulares adquieren en diferentes células funciones distintas. En este caso, las
estructuras pueden o cambiar o ser utilizadas sin cambios significativos, pero
para otros propósitos. Previamente, nosotros ya habíamos mencionado que las
bombas de iones y el potencial de reposo están presentes en todas las células de
los organismos, y en las neuronas y en las células musculares se utilizan para la
transmisión de señales.
El relato sobre las sinapsis nos ofrece muchos ejemplos de cómo una estructura
única se puede convertir en varias. Ya pudimos ver que los conexones existen
en diferentes células de los organismos, incluyendo las células no excitables.
Los conexones son utilizados tanto para la regulación del desarrollo embriona-
rio, como para el transporte de moléculas de una célula a otra, y en los tejidos
excitables este canal intercelular fue utilizado durante la evolución para la
transmisión de la corriente eléctrica, para la creación de las sinapsis eléctricas.
Diferentes células liberan a su entorno distintas sustancias. Existen estructuras
celulares especiales para la liberación de sustancias secretadas: estas sustancias
208

están “empacadas” en contenedores de membranas y su liberación es regulada


por los iones de Ca2+, que entran a la célula a través de canales de calcio espe-
ciales. Como resultado de la selección natural, este mecanismo es utilizado por
las neuronas en la construcción de las sinapsis químicas: en los contenedores se
encuentra el neurotransmisor y luego su liberación se organiza de la misma
manera que la liberación de hormonas y de otras sustancias. Desde este punto
de vista, las neuronas con sinapsis químicas constituyen uno de los tipos de cé-
lulas secretoras, y el neurotransmisor es su secreción, sólo que ésta no se libera
a la sangre, sino hacia un receptor determinado a través del espacio sináptico.
Por otra parte, nosotros ya vimos que el funcionamiento de las células del pán-
creas es parecido al funcionamiento de las neuronas. Las primeras también tie-
nen un potencial de acción, la función del cual es abrir los canales de calcio y
permitir su entrada a las células. También en muchas de las células musculares
el papel principal del potencial de acción es abrir las compuertas de los canales
de calcio para los iones de Ca2+, que son los que inician el proceso de la con-
tracción. Aquí de nuevo podemos apreciar una gran similitud entre los meca-
nismos empleados por diferentes células con fines diferentes: para la transmi-
sión de la señal en las sinapsis eléctricas, para el proceso de secreción en las
glándulas, para la contracción de las células musculares. Aunque para ser sin-
ceros, esto no debería asombrarnos, porque todas estas estructuras se encuen-
tran en células que poseen un genoma idéntico.
La mayoría de las células del organismo tienen en su superficie proteínas-re-
ceptoras especiales para las respuestas a hormonas, o a las diferentes sustancias
en la sangre. Las células del sistema inmune utilizan estos receptores para dis-
tinguir sus proteínas de las proteínas alienígenas, las células del sistema respi-
ratorio—para reaccionar a las concentraciones del dióxido de carbono, etc. En
las neuronas, los receptores de la membrana postsináptica, al abrirse en res-
puesta al neurotransmisor, le dan paso a algunos iones provocando un cambio
en el potencial de la membrana. Ahora ya se han descubierto muchas sinapsis
metabólicas (nosotros ya mencionamos algunas de ellas), donde el efecto de la
sinapsis es realizado por proteínas receptoras a través del cambio de las reac-
ciones metabólicas, lo que las hace más parecidas a otros tipos de receptores
celulares.
Muchas veces dicen que el desarrollo de la ciencia lleva a un aislamiento cada
vez mayor de sus diferentes áreas. De esta manera un especialista verdadero es
una persona que sabe todo sobre algo muy pequeño. Como vemos, en la biolo-
gía podemos encontrar ejemplos de lo opuesto. Mientras más profundo es
nuestro conocimiento sobre las células y de los organismos, más clara resulta
la existencia de mecanismos comunes de funcionamiento, que la evolución
adapta con mucho ingenio para lograr diferentes propósitos.
210

Capítulo 8

El segundo encuentro con la geometría. La geometría, la electricidad, y las


funciones

Toda mi física no es más que pura geometría.


René Descartes
A principio de los años 60 del siglo pasado, la teoría del sodio del potencial de
acción ya era aceptada por todos los investigadores. No obstante, su base expe-
rimental, obtenida únicamente en el axón de calamar, era bastante reducida.
Por eso, en diferentes laboratorios del mundo comenzaron a estudiar la aplica-
bilidad de esta teoría a otros objetos biológicos. En la mayoría de los casos fue
descubierto que diferentes células excitables—los nervios de las ranas y de los
gatos, las fibras musculares y otras, funcionan de la misma manera que el axón
de calamar.
El misterio de las células del miocardio y la “aproximación geométrica”
Una de las excepciones más notables de la teoría eran las células del corazón
de los mamíferos. Aunque al principio nada auguraba grandes diferencias. El
fisiólogo suizo Silvio Weidmann estudiaba los filamentos conductivos de Pu-
rkinje en el corazón, los cuales transmiten hacia las células del ventrículo una
señal proveniente de una estructura especial que se encuentra entre la aurícula
y el ventrículo. Estos filamentos están compuestos por “columnas” de células
que se unen entre sí mediante contactos de alta permeabilidad. Silvio Weid-
mann demostró que en esas células del corazón la elevación rápida del poten-
cial durante la excitación se debe a la apertura de canales de sodio. La veloci-
dad del incremento del PA y su magnitud dependía del contenido de iones de
sodio en la solución externa, y la resistencia de la membrana en el pico del PA
disminuía unas 100 veces en comparación con las condiciones de reposo. Todo
parecía ser igual a como se genera un PA en el axón de calamar.
Pero en el caso de las células de la aurícula y el ventrículo la situación re-
sultó ser diferente, y muy inesperada. La magnitud del PA también dependía
de la concentración del sodio en la solución externa de baño, y su valor era
aproximadamente +20 mV, indicando que la permeabilidad de la membrana
para el sodio aumentaba un orden de magnitud en comparación con la permea-
bilidad para el potasio. ¡Pero la resistencia de entrada del tejido durante la
excitación no cambiaba!
Este hecho entraba en contradicción directa con la teoría reinante. Para ex-
plicarlo se proponían diversas explicaciones artificiales. Por ejemplo, se propo-
nía que en las células del corazón hay unos canales de potasio especiales, que
se cierran a la misma velocidad con la que se abren los canales de sodio. Y se
decía que ésta pudiera ser la causa de que la resistencia no cambiase. Pero no
fue posible comprobar la existencia de este tipo de canales. Otras explicaciones
inventadas también fallaban.
En ese entonces, dos biofísicos rusos, Sergey Kóvalev y Levón Chaylakh-
yán, intentaban resolver otro problema, que, a primera vista, nada tenía que ver
con el corazón. Ellos estaban investigando cómo se propagaba la excitación a
lo largo de un filamento nervioso no homogéneo. Recuerda que en el Capítulo
6 (sobre la conducción del impulso) examinamos un cable cilíndrico infinito,
es decir un filamento homogéneo ideal. Pero los filamentos reales pueden am-
pliarse o estrecharse, y prácticamente todos se ramifican y terminan en cierto
lugar. El problema era determinar qué ocurre con un impulso nervioso cuando
éste se acerca a una zona de heterogeneidad—a una zona de ampliación o de
ramificación. La teoría para estos casos aún no había sido creada.

Reflexionando sobre los filamentos ramificados, Sergey Kóvalev y Levón


Chaylakhyán propusieron una hipótesis completamente nueva para explicar el
misterio de las células cardiacas. Ellos pensaban de la siguiente manera. En el
sistema nervioso del corazón ocurre lo mismo que en el axón del calamar, pero
el ventrículo es otro caso. En primer lugar, el sistema nervioso del corazón se
distingue del ventrículo por su geometría: el primero está compuesto de fila-
mentos parecidos a cables, mientras que el ventrículo es, más bien, una red de
células conectadas entre sí mediante contactos de alta permeabilidad la cual de
ninguna manera puede ser considerada como un cable. ¿Pudiera ser que el
comportamiento extraño del ventrículo no se debiera a la existencia de canales
iónicos raros, sino más bien a estas diferencias en la geometría del tejido?
212

Para encontrar la respuesta a esta cuestión, había que contar una teoría si-
milar a la teoría para el nervio homogéneo, pero para diferentes estructuras
geométricas.
Sergey A. Kóvalev y Levón M. Chaylakhyán trabajaban en el Departamen-
to Teórico del Instituto de Biofísca de la Academia de Ciencias de URSS, que
reunió a jóvenes matemáticos, físicos y biólogos. Esta unión de distintos cono-
cimientos ayudaba mucho en el trabajo. Entre los trabajos realizados dentro de
este departamento fue desarrollada la teoría general del cable, la que permitió
crear una nueva aproximación a los tejidos excitables, denominada “aproxima-
ción geométrica”.
¿En qué consiste esta aproximación? De los capítulos anteriores tú ya sabes
que las propiedades de las neuronas y las células musculares dependen princi-
palmente de las propiedades de sus membranas. A su vez, estas propiedades
dependen de los tipos de canales iónicos presentes en la membrana (nosotros
volveremos a tocar esta cuestión en el siguiente capítulo). Pero se descubrió
que la naturaleza también tiene otra opción para cambiar las propiedades de las
células: cambiando su forma. (De la misma que se pueden elaborar prendas de
vestir de diferentes telas, pero también se pueden elaborar prendas de diferen-
tes modelos utilizando un mismo tipo de tela.)
En la biología existe un problema muy antiguo: el problema de la forma y
la función. Por ejemplo, la forma de las extremidades delanteras de los topos o
tusas está adaptada para excavar la tierra, la de los murciélagos está adaptada
para el vuelo, y las de los monos—para poder agarrar objetos. Por otra parte, la
forma del cuerpo de animales tan distantes en su origen como el ictiosaurio (un
dinosaurio acuático), el tiburón (un pez) y el delfín (un mamífero) es muy si-
milar, ya que son nadadores muy rápidos.
La aproximación geométrica es básicamente la aplicación de esta misma
idea a los tejidos excitables. La idea principal consiste en que las propiedades
de las células y los tejidos excitables y, por lo tanto, las funciones que cumplen
son determinadas por su estructura geométrica: por la forma de las células, por
sus proporciones geométricas, por su localización mutua y por sus conexiones.
Hoy en día, la aproximación geométrica se usa ampliamente en la
electrofisiología y esto parece muy natural, porque, por ejemplo, las funciones
de una neurona dependen de la distribución del potencial en su membrana y de
las corrientes que fluyen en la célula y en el medio que las rodea. Pero las
corrientes y los voltajes dependen a su vez de la distribución de las resistencias
y de las capacitancias, y esta distribución depende de la forma de la célula.
Estas ideas bastantes simples resultaron ser muy productivas al ser aplicadas a
problemas biológicos concretos. A continuación examinaremos algunos
ejemplos de la aplicación de la aproximación geométrica a las neuronas, las
cuales pueden ser de tamaños y formas diferentes, y a los filamentos nerviosos
—los axones y las dendritas, que no siempre parecen cables de un diámetro
homogéneo, así como a los sistemas celulares.
De la esfera y el cilindro
Comparemos las propiedades eléctricas del cuerpo de la neurona y del nervio,
considerando al cuerpo de la neurona como una esfera y al nervio—como un
cable cilíndrico infinito. (Por supuesto la mayoría de las neuronas tienen una
forma bastante complicada y parecen más árboles o erizos que una esfera. Pero
si recordamos que el famoso matemático ruso Pafnúty Chébyshev comenzó su
escrito “Sobre la confección de los vestidos” con la frase “Para empezar, to-
memos el caso más sencillo, y consideremos al cuerpo humano como una esfe-
ra”, entonces nuestra aproximación de la neurona a una esfera no es tan desca-
bellada, además de que algunas neuronas efectivamente se aproximan en su
forma a esta figura.)
La comparación de las propiedades eléctricas de una esfera y de un cilindro
hechos de una misma membrana nos indicará qué papel juega la forma en la
determinación de esas propiedades.
Los parámetros eléctricos que caracterizan a las células y a los tejidos pue-
den ser divididos en dos grupos. En el primer grupo se encuentran los paráme-
tros de las sustancias de la membrana y del protoplasma: la resistencia especí-
fica de la membrana, que por lo general tiene un valor de 1-10 kOhm∙cm2; su
capacitancia específica, con un valor típico de 1 µF/cm2, y, finalmente, la re-
sistencia específica del protoplasma, aproximadamente igual a 100 Ohm∙cm.
Estos parámetros no dependen de la forma y de las dimensiones de la célula.
214

En el segundo grupo están los parámetros que podemos llamar sistémicos. Es-
tos caracterizan a la célula, al nervio, o al sistema de células conectadas entre sí
como un todo, y dependen tanto de las dimensiones como de la forma. Uno de
los parámetros sistémicos principales es la resistencia de entrada ( ) de la
que hablamos en el Capítulo 6.
La resistencia de entrada se determina de la siguiente manera. Uno de los
microelectrodos (el de estimulación) se inserta en una célula individual, conec-
tada eléctricamente con las células vecinas, mientras que el electrodo de refe-
rencia es colocado en el medio externo. Luego se aplica entre estos electrodos
. Al mismo tiempo se inserta un segundo microelectrodo, ya
sea en la misma célula que se estimula, en su axón, o en la célula vecina. Cuan-

en el potencial de la membrana. El segundo microelectrodo debe ser insertado


lo más cerca posible al microelectrodo de estimulación, ya que, como sabemos,
en un axón (así como en el sistema de células conectadas) el cambio de poten-
cial irá disminuyendo gradualmente con el incremento de la distancia entre el
electrodo de estimulación y de registro:
(8.1)
Entonces, la resistencia de entrada es un análogo de una resistencia común del
depende de los pará-
metros del primer grupo (es decir, de las propiedades del material), y de la for-
ma y las dimensiones de las células, así como de su posición relativa (cuando
se trata de un grupo de células conectadas). Por ejemplo, como vimos en el Ca-
pítulo 6 (ecuación 6.1), la resistencia de entrada del axón se describe mediante
la ecuación

. (8.2)

son las resistencias específicas de la membrana y del protoplas-


ma del axón, o sea, parámetros del primer grupo; todo lo demás en la ecuación
se determina por la geometría del filamento: se considera que tenemos el caso
de un cilindro cuyo largo es mucho mayor que su radio.
Ahora veamos qué sucede si de ese mismo material hacemos “otro vestido”—
una célula esférica con un radio .

Se puede demostrar que, en las células esféricas, incluso en las más gran-
des, con un diámetro de aproximadamente 1 mm, la resistencia del protoplas-
ma corresponde a tan solo 0.1% de la resistencia de la membrana. En células
de un menor tamaño—como las células del sistema nervioso de los vertebrados
—esta resistencia puede ser ignorada por completo (es por esto que en el es-
quema del circuito en la Fig.43 la resistencia del protoplasma está omitida).
Así que en realidad la resistencia de entrada de una célula esférica depende so-
lamente de la resistencia específica de su membrana y de su radio

(8.3)
Comparemos ahora las ecuaciones (8.2) y (8.3). En la célula esférica la resis-
tencia , por eso si durante la excitación
la resistencia específica de la membrana disminuye, por ejemplo, unas 36 ve-
ces, entonces también disminuirá 36 veces (Fig.43B). Mientras tanto, en
el cable , por lo que, si durante la
excitación la resistencia de la membrana disminuye 36 veces, la resistencia de
entrada cambiará solamente 6 veces (Fig.43A,B).

La célula esférica y el cable cilíndrico también se distinguen notablemente


en sus capacitancias. Si en cierto momento del tiempo le aplicamos a una célu-
la esférica una corriente continua, el potencial de la célula irá aumentando de
acuerdo a la expresión (Fig.43C)

. (8.4)

(Recordemos, que
=1000 Ohm∙cm2 =1 µF/ cm2, el valor de para esa membrana será de 1
ms.)
Ahora, si desconectamos la corriente, el potencial acumulado no desaparecerá
al instante, sino que también decaerá en forma exponencial (Fig.43C):
216

(8.5)

Fig.43 Comparación de las propiedades eléctricas de una célula esférica y de un


cable cilíndrico). A — esquemas equivalentes de una célula esférica y un cable; se
puede descartar la resistencia del protoplasma en el caso de la célula esférica, pero
es necesario tomarla en cuenta en el caso del cable. B — Valor de la resistencia de
entrada en función de la resistencia específica de la membrana para una célula esfé-
rica y para un cable. C — Incremento y decremento del potencial en una célula esfé-
rica y en un cable al transmitir pulsos de corriente (la corriente se aplica en el mo-
mento t0 y se apaga en el momento t1, el segundo pulso inicia en el momento t2 y ter-
mina en el t3). En una célula el potencial incrementa y disminuye de manera más
lenta que en el caso de un cable. Se puede observar que en el caso de la célula el
cambio del potencial en respuesta al segundo pulso se suma con la respuesta al pri-
mer pulso.

Las propiedades de la capacitancia de un cable cilíndrico son completamente


diferentes. Las expresiones para el incremento y la disminución de la magnitud
de la corriente comienzan a ser bastante complicadas y no las vamos a presen-
tar acá. Si las propiedades de la membrana son las mismas, la diferencia princi-
pal consiste en que el potencial en un cable aumenta y disminuye de una mane-
ra mucho más rápida (Fig.43C).
¿Cuál es la conclusión? Los primeros ejemplos de la influencia de la
geometría en la función
¿Cuál es la importancia de estas propiedades sistémicas para el funcionamiento
de las neuronas y de los filamentos? ¿Cuáles son las características que traen
consigo? A continuación, presentaremos algunos ejemplos que demuestran la
importancia de los parámetros sistémicos para el funcionamiento de las neuro-
nas.
Ejemplo primero. Supongamos que tenemos dos células esféricas—una grande
y otra pequeña, y en ambas células hay sinapsis iguales. La pregunta es ¿qué
influencia van a tener esas sinapsis sobre cada una de esas células?
En el capítulo anterior nosotros obtuvimos la ecuación para el cambio del
potencial provocado en una sinapsis—el potencial postsináptico (la expresión

sinapsis) es muy grande y es aproximadamente igual a 1012 Ohm. La resisten-


cia de entrada de las neuronas es mucho menor: en una neurona de un diámetro
de 1 mm, esta resistencia es aproximadamente igual a 105 Ohm, e incluso en
una neurona pequeña, de un diámetro de tan solo 10 µm, su valor es de solo
109 Ohm. Entonces, en el denominador de la ecuación que presentamos más
, por lo que pode-
mos ignorarla. De esta manera, obtenemos una expresión simplificada:

. (8.6)

Como podemos ver de esta ecuación, el potencial postsináptico generado por


sinapsis iguales, pero en diferentes células, será directamente proporcional a la
resistencia de entrada de la célula, y, a su vez, es inversamente pro-
porcional al cuadrado del diámetro de la célula. Por lo tanto, si aplicamos un
mismo estímulo a una célula de un diámetro de 10 µm y a una célula de un diá-
metro de 100 µm, el potencial postsináptico en la primera será 100 veces ma-
yor que en la segunda. Sobre esta diferencia en la susceptibilidad al efecto si-
náptico en células de diferentes diámetros escribía el famoso científico ruso
218

Mikhail Bongard. Él escribió: “Esto es comprensible. Con un cerillo se puede


prender una pajita delgada, pero no se puede prender un tronco grueso”.
Ejemplo segundo. Cuando examinamos el mecanismo de acción de las sinapsis
inhibidoras, nosotros mencionamos que éstas abren canales permeables para el
potasio y el cloro, lo que provoca una hiperpolarización de la célula, alejando
su potencial del valor umbral. Ahora podemos presentar la segunda causa de su
acción inhibidora. Cuando las sinapsis inhibidoras abren los canales iónicos,
con ello provocan una disminución de la resistencia de la membrana y como
consecuencia—de la resistencia de entrada -
sión (8.6) podemos ver que el impacto de la acción de las sinapsis excitadoras
, por eso las sinapsis inhibidoras, que dismi-
, disminuyen también el efecto de las sinapsis excitadoras.

Pero, como podemos observar de las expresiones (8.2) y (8.3), la resisten-


cia de una célula esférica y de un filamento cilíndrico depende de diferen-
te manera de la resistencia de la membrana. Si las sinapsis inhibidoras reducen
a la mitad la resistencia de la membrana de la célula esférica, la resistencia
, y, como consecuencia, la eficiencia de las sinapsis excitadoras también
disminuirá dos veces. Pero cuando las sinapsis inhibidoras actúan sobre un ca-
ble cilíndrico, por ejemplo, sobre una dendrita larga, el resultado será diferente:
si la resistencia de la membrana disminuye dos veces, la resistencia dismi-
nuirá tan solo en , es decir, en aproximadamente 1.4 veces, por lo que la
eficiencia de la inhibición será menor que en el caso de la célula esférica. De
esta manera, podemos entender por qué en los organismos las sinapsis inhibi-
doras con más frecuencia se encuentran en los cuerpos de las neuronas.
Ejemplo tercero. Nosotros ya vimos que el potencial creado por una sinapsis
en una célula, no importa que sea muy pequeña, es menor que el potencial um-
bral por cientos, y a veces hasta por miles de veces. De esta observación pode-
mos concluir que la célula puede excitarse solamente bajo la acción no de una
sino de muchas sinapsis.
La suma del efecto de muchas sinapsis que actúan sobre diferentes partes
de la membrana celular se denomina sumación espacial. Aunque típicamente
diferentes sinapsis actúan sobre una célula en momentos diferentes: mientras
una sinapsis deja de actuar sobre el potencial de la membrana, otra apenas se
está excitando. En este caso, la sumación recibe el nombre de espaciotemporal.
La sumación temporal surge durante la acción de una misma sinapsis, cuando
el potencial creado por ésta todavía no desaparece al momento de su segunda
excitación.
Para la sumación temporal y espaciotemporal, es muy importante la dura-
ción de la “huella” del efecto sináptico, que depende de las características de la
capacitancia de la célula (observa la expresión 8.5). Si el potencial generado
decae lentamente, el efecto de una segunda sinapsis, que se activó más tarde,
podrá sumarse con el potencial remanente creado por la primera sinapsis. De lo
contrario, solamente se suman los efectos de las sinapsis que se activan casi si-
multáneamente.
En la Fig. 43C se puede apreciar claramente que el valor del potencial en
un cable decae mucho más rápido que en una célula esférica. Pero en los inver-
tebrados las sinapsis no se encuentran en los cuerpos de las células, sino en sus
ramificaciones, es decir en filamentos que poseen propiedades de un cable. Por
lo tanto, si asumimos que las propiedades eléctricas de las membranas de los
invertebrados y los vertebrados son iguales, los potenciales en las sinapsis de
los invertebrados se sumarán en un menor grado que en el caso de las sinapsis
de los vertebrados, en los cuales las sinapsis se localizan en los cuerpos de las
células. Pero si las sinapsis en los vertebrados se encuentran en dendritas lar-
gas, la sumación que ocurrirá será similar a la que tiene lugar en los invertebra-
dos.
Acá examinamos las dos estructuras más simples: una célula esférica y un
cable cilíndrico. A continuación, analizaremos algunos ejemplos más compli-
cados de la influencia de la forma de las células y de la topología del tejido so-
bre sus propiedades eléctricas y sus funciones.

El filamento nervioso se ensancha, se estrecha, se ramifica y se termina


En 1964, en Ereván, una ciudad de la Unión Soviética, tenía lugar el Congreso
Nacional de Fisiología. Uno de los autores de este libro presentaba los prime-
ros resultados y el programa de investigaciones relacionadas con la aproxima-
220

ción geométrica. Entre los asistentes se encontraba Borís Khódorov, un


colaborador del Instituto de Cirugía “A. Vishnévskiy”, y quien posteriormente
fue una figura clave en la difusión de la aproximación geométrica en los
estudios. Pero durante el congreso él dudaba mucho de las conclusiones
mostradas en la presentación sobre la propagación de los impulsos en filamen-
tos nerviosos no homogéneos, por lo que decidió revisarlos personalmente.
Muchas conclusiones de esa presentación eran producto de ideas cualitativas.
Borís Khódorov decidió revisar estas ideas cuantitativamente. Es así como apa-
reció el primer modelo para computadora de la propagación de impulsos en
nervios no homogéneos. ¿Y qué fue lo que asombró a Khódorov?
Imaginemos que el filamento nervioso se ensancha en algún punto. ¿Qué le
pasará al impulso que se aproxima a una parte más gruesa del filamento desde
una parte más delgada? Cuando el impulso se propaga por el fragmento delga-
do del filamento, la corriente generada por el área excitada carga las partes cer-
canas de la membrana, y pasa por el axoplasma hacia zonas más alejadas.
Cuando el área excitada se va acercando al lugar del ensanchamiento, una gran
parte de la corriente comienza a fluir hacia la parte ensanchada del filamento
(porque en esta parte la resistencia es menor) y una menor parte de la corriente
pasa por la membrana no excitada de la parte delgada del filamento. Debido a
esto, la capacitancia del área delgada se carga de una manera más lenta, el po-
tencial también aumenta de una manera más lenta, por lo que el impulso se
propaga de una manera más lenta. Aparte, disminuye la magnitud del impulso,
ya que cuando el potencial aumenta lentamente algunos de los canales de sodio
logran inactivarse.
Imaginemos ahora que el impulso ya alcanzó el área del ensanchamiento
del filamento. Las condiciones de propagación empeoran: la corriente se gene-
ra por la membrana de la parte delgada, pero esa corriente debe excitar a la
membrana de la parte ancha, la cual tiene un área mayor. La corriente que pasa
a través de la membrana de la parte ensanchada se extiende por un área mayor
y carga la membrana de una manera muy lenta. Como resultado, el potencial
en el área gruesa del filamento va a aumentar también de manera muy lenta.
Basándose en estas ideas, los autores de la presentación predijeron que, al
entrar a un ensanchamiento del filamento nervioso, el impulso debe disminuir
tanto su velocidad como su magnitud, y si el ensanchamiento alcanza cierto va-
lor crítico, el impulso no podrá pasar un área así. Precisamente estas prediccio-
nes fueron las que revisaron B. Khódorov y sus colaboradores mediante cálcu-
los en una computadora.
Los cálculos demostraron la certeza de estas predicciones (Fig.44). Así fue
determinado que cuando el filamento nervioso se ensancha 6 veces, el PA ya
no puede pasar a través de este ensanchamiento. Este valor es crítico para una

Fig.44 Propiedades de la propagación de la excitación en filamentos que se


ensanchan o se estrechan. A — propagación del impulso a través de un
ensanchamiento: durante el tiempo ∆t, el impulso se propaga del punto 1 al punto 2
y luego, durante un tiempo similar — del punto 2 al punto 3. Se puede observar que
antes del ensanchamiento la velocidad del impulso y su magnitud disminuyen. B —
Gráficas de la velocidad del impulso en función de la distancia recorrida en un
filamento que se ensancha o se estrecha (los esquemas de los filamentos se muestran
abajo). Se puede observar un incremento de la velocidad del impulso previo al

filamentos.
222

membrana como la del axón de calamar; pero si esta membrana es de “una


peor calidad” (si es menor la magnitud del PA, y el umbral es más alto),
entonces el bloqueo incluso surge con ensanchamientos menores.
Ya luego los problemas de los filamentos que se ensanchaban o estrecha-
ban llamaron la atención de muchos otros científicos. Por ejemplo, los Vladis-
láv S. Márkin y Yúry A. Chizmádzhev supieron solucionar con la ayuda de un
modelo matemático simplificado, sin ninguna computadora, el problema de la
propagación del PA en un filamento que se ensancha. Ellos obtuvieron un re-
sultado muy inesperado. Ellos determinaron que si el filamento era rodeado de
un medio poco conductivo, el PA podía pasar por un ensanchamiento mayor,
es decir, si las condiciones para la propagación del impulso eran peores ¡se fa-
cilitaba el paso a través del obstáculo! (Esta situación es similar a la que tiene
lugar en el caso de las sinapsis eléctricas, en las que la transmisión de la señal
se facilita cuando el espacio sináptico se rellena de un material aislante.) ¿Cuál
es la razón de este fenómeno? En términos muy generales, podemos decir que
con el aumento de la resistencia externa disminuye la constante espacial del fi-
lamento, por lo que disminuye la proporción de la corriente que fluye al inte-
rior de la parte gruesa del filamento, lo que le ayuda a superar este obstáculo.
Y ¿qué pasará si el filamento no se ensancha sino al revés, se estrecha? To-
mando en cuentas las mismas consideraciones, pero con el signo opuesto, po-
demos deducir que con el acercamiento del PA a un estrechamiento su veloci-
dad y su magnitud deben aumentar (Fig.44B). Este fenómeno resultó ser muy
importante, simplemente porque cualquier axón, por muy largo que sea, siem-
pre se termina, y precisamente con terminales más delgadas, por lo que obtene-
mos como un “estrechamiento hasta cero”. Entonces, cuando el PA se acerca a
la terminal, el impulso se acelera cada vez más y su magnitud aumenta. Surge
un fenómeno parecido al choque hidráulico, cuando el líquido que fluye por un
tubo se encuentra con un obstáculo. El aumento de la magnitud del potencial
en las terminales es muy importante para el funcionamiento de las sinapsis quí-
micas, ya que mejora las condiciones de liberación de los neurotransmisores.
Veamos ahora los fenómenos que ocurren en la zona de ramificación del
filamento nervioso.
En los vertebrados, por lo general, el caso de la ramificación no se distingue de
los casos del ensanchamiento o estrechamiento del filamento, porque en estos
organismos el impulso siempre surge en el cuerpo de la célula y siempre va di-
rigido hacia el axón. Si el impulso se acerca al punto de ramificación por un
tronco grueso común, el cual luego se divide en ramitas delgadas, el PA se ace-
lerará en el área que precede a la ramificación. En cambio, si el área de la

Fig.45 “Detector de movimientos unidireccionales”—un mecanismo que puede


reaccionar al movimiento de un estímulo mecánico por la superficie de la piel o de
un estímulo óptico percibido por la retícula, en cierta dirección y a cierta velocidad.
Es fácil deducir que la velocidad de los estímulos percibidos debe ser igual a la velo-
cidad de la propagación de la señal a lo largo del fragmento horizontal de la dendri-
ta. Arriba: el detector percibirá al estímulo, abajo: no lo percibirá.
224

membrana de las ramitas salientes es mayor al área del filamento por donde
llega el impulso, el avance del PA podrá volverse más lento o incluso
bloquearse.
Pero en las neuronas de los invertebrados la situación en la zona de ramifi-
cación puede ser muy diferente. Y es que, como ya mencionamos, en los inver-
tebrados las sinapsis se encuentran no en el cuerpo de la neurona, sino en pe-
queñas ramitas que se distinguen de las prolongaciones de la neurona, por lo
que esas ramitas pueden excitarse de manera independiente. Imaginemos que
existe una zona de ramificación en la cual se encuentran dos ramitas delgadas y
una más gruesa. La relación entre sus diámetros puede ser tal, que el PA no
pase a la ramita gruesa por ninguna de las delgadas cuando éstas se excitan de
manera independiente, pero el impulso sí alcanza a pasar cuando ambas rami-
tas delgadas se excitan al mismo tiempo. Este tipo de zona de ramificación
funciona como un esquema lógico “AND”: el impulso puede propagarse a tra-
vés de la ramificación solamente cuando ocurren dos eventos al mismo tiempo,
pero no se propaga si ocurre solo alguno de los dos. Neuronas que funcionan
de esta manera efectivamente fueron encontradas en algunos moluscos.
En general, usando zonas de ramificación como elementos “lógicos” pueden
crearse muchos prototipos diferentes en el sistema nervioso. Por ejemplo, es
muy fácil imaginar una neurona que puede detectar una fuente de sonido que
se encuentra directamente enfrente del animal; las señales de este tipo de neu-
ronas llegarán a los oídos de manera simultánea. Como otro ejemplo, veamos
el funcionamiento de un “detector de movimientos unidireccionales”. Supon-
gamos que tenemos una neurona con una estructura de la dendrita como la que
se muestra en la Fig.45 Supongamos también que sobre cada una de sus rami-
tas actúa, por ejemplo, un fotoreceptor. Si el estímulo de luz recorre los fotore-
ceptores de izquierda a derecha, una tras otra se excitarán las ramitas 1, 2, 3 y
así sucesivamente. Cuando el PA de la ramita 1 alcance la primera zona o nodo
de ramificación, ahí mismo llegará la señal de la ramita 2, ocurrirá la sumación
de estas dos, el impulso rebasará el “nodo lógico” y se seguirá propagando. En
el siguiente nodo, ese impulso se encuentra con el PA de la ramita 3, y así su-
cesivamente. Pero si el estímulo se mueve en dirección opuesta, entonces el
impulso de la ramita 5 se perderá, porque “en su ayuda no vendrá” el impulso
de la ramita 4.
Este esquema logrará excitar al cuerpo de la neurona únicamente cuando el es-
tímulo se mueva en cierta dirección y a cierta velocidad; la neurona no respon-
derá a otras señales. (Este esquema en su tiempo fue propuesto para explicar el
funcionamiento de algunas neuronas de la retina, pero a continuación resultó
ser que el principio de funcionamiento es diferente. Hoy en día se considera
que neuronas de este tipo pudieran participar en el funcionamiento del sistema
auditivo.)
Notemos que si colocamos en la zona de ramificación sinapsis excitadoras
o inhibidoras, podremos controlar el proceso de propagación del PA a través
del nodo.

Para qué las neuronas necesitan dendritas y para qué las dendritas
necesitan espigas
Muchas neuronas parecen arbustos o árboles: su axón parece una raíz delgada
y las demás ramas son las dendritas. Las dendritas por lo general emergen del
cuerpo de la célula en forma de ramas gruesas que luego se dividen en ramas
más delgadas, que a su vez se dividen en ramas aún más delgadas, y así sucesi-
vamente. El largo de las dendritas supera por decenas de veces al diámetro de
las neuronas y el grosor de las ramitas finales es muy pequeño, pudiendo llegar
a fracciones de un micrómetro. El papel que juegan las dendritas en el funcio-
namiento de las neuronas todavía no se conoce por completo y muy probable-
mente en distintas neuronas su papel es diferente. Por ejemplo, en algunas cé-
lulas la membrana de las dendritas no se excita y solo transmite señales de ma-
nera electrotónica, tal como ocurre en un cable pasivo (Capítulo 6). En cambio,
en otras células las dendritas pueden transmitir un PA. Pero por el momento
examinaremos solamente las propiedades de las dendritas que están relaciona-
das con su geometría.
Veamos primero el caso de las células cuyas dendritas no son excitables.
En este caso, la “cuestión de las dendritas” consiste en lo siguiente. Las termi-
nales sinápticas terminan en diferentes partes del árbol dendrítico.
Supongamos que una de estas sinapsis actúa sobre una ramita que está alejada
del cuerpo de la célula. En este caso, las condiciones para la transmisión de la
señal eléctrica parecen ser las menos adecuadas. Efectivamente, en una ramita
delgada, la constante de extinción tiene un valor bastante alto, y la dendrita se
226

va ensanchando, lo que, como vimos, no ayuda a transmitir la señal. En este


tipo de cables la señal se extingue notablemente más rápido (Fig.34,c), aunque
hay que tener en cuenta, que en el caso de estas dendritas no ocurre una
extinción completa de la señal y el potencial en el extremo de la rama no decae
hasta cero. En el siguiente fragmento de la dendrita las condiciones para la
transmisión de la señal tampoco son muy favorables, porque ese fragmento
también se ensancha y así sucesivamente. Esta situación condujo a pensar que
el aporte de las sinapsis que se encuentran en las ramitas más alejadas de los
cambios de potencial del cuerpo de la célula es cientos de veces más pequeño
que el de las sinapsis que se encuentran directamente en el cuerpo de las
células. Pareciera que las sinapsis ubicadas en las terminales de las dendritas
fueran un “error de la naturaleza” y no tuvieran ninguna utilidad.
Una de las posibles soluciones al “problema de las dendritas” consiste en
que en las ramitas delgadas más alejadas se puedan ubicar muchas sinapsis
(porque el área total de la membrana de estas terminales es muy grande), y en-
tonces la acción conjunta de estas sinapsis si se transmitirá hasta el cuerpo de
la célula. Pero para lograr una respuesta así, es necesario que todas esas sinap-
sis se activen más o menos al mismo tiempo.
Por un tiempo bastante prolongado todas estas conclusiones tuvieron un
carácter especulativo. En 1965, en el Departamento Teórico del Instituto de
Biofísica de la Academia de Ciencias de la URSS, fue desarrollado un método
de evaluación cuantitativa de la efectividad de las sinapsis en neuronas de cual-
quier forma y fue calculada esa efectividad para las motoneuronas, para las
neuronas piramidales de la corteza, y para las células del cerebelo. Utilizando
este método fue calculado que la efectividad de las sinapsis en las dendritas es
tan solo 3-5 veces más baja que la de las sinapsis que se encuentran en el cuer-
po de la célula. ¿Cómo se puede explicar este resultado? ¿Por qué la efectivi-
dad de las sinapsis ubicadas en dendritas alejadas resultó ser bastante alta? Re-
cordemos lo que se decía al principio de este capítulo sobre el efecto de las si-
napsis sobre una célula grande y una pequeña. Mientras menor es la célula,
mientras más grande es su resistencia de entrada, mayor será el cambio de po-
tencial generado por una sinapsis. En las dendritas delgadas que se encuentran
lejos del cuerpo de la célula, la resistencia de entrada resultó ser muy grande,
por lo que las sinapsis pueden generar cambios de potencial cuya magnitud es
decenas de veces más grande, que el generado por las sinapsis ubicadas en el
cuerpo de la neurona. Y aunque durante su propagación este cambio de
potencial se vaya extinguiendo de manera muy notable, su gran magnitud
compensa en gran parte su extinción (Fig.46).

Fig.46 El efecto de la sinapsis depende de su ubicación en la neurona. La sinap-


sis 1 se encuentra sobre el cuerpo de la neurona (soma); el potencial que crea es de
una magnitud pequeña, pero este potencial actúa directamente sobre el soma. La si-
napsis 2 se encuentra sobre una dendrita delgada. En esta zona, la sinapsis crea un
potencial local de una magnitud bastante grande, que sufre una extinción muy nota-
ble en su ruta al soma, pero finalmente se vuelve comparable al potencial generado
por la sinapsis 1.
Ahora examinemos aquellas neuronas que tienen dendritas con una membrana
excitable, capaz de generar un PA. En este tipo de neuronas, una alta efectivi-
dad de las sinapsis en sus dendritas puede provocar que con la activación de al-
gunas de ellas el potencial cambie hasta el valor umbral después del cual se ge-
nera un PA autopropagable. El futuro de ese PA depende de las propiedades de
los nodos de ramificación a través de los cuales tendrá que pasar en su camino
hacia el cuerpo de la célula, es decir depende de la geometría de la dendrita.
Una célula de este tipo funciona como un esquema lógico complejo. Un ejem-
plo de esta célula, que determina los movimientos en una sola dirección, fue
presentado en la Fig.45. Las células con una forma de las dendritas más com-
pleja funcionarán como pequeñas computadoras. “Este tipo de sistema es simi-
lar a un sistema de votación con una gran cantidad de votantes. Por supuesto,
228

el resultado final depende del número total de votos emitidos a favor o en


contra, pero depende también en gran parte de quién es el votante y junto con
quién vota”—escribían los científicos del Departamento Teórico del Instituto
de Biofísica de la Academia de Ciencias de la URSS en el año 1966.
En las dendritas de muchas neuronas existen unas estructuras especiales
que se llaman espigas. Estas estructuras recuerdan pequeñas setas parecidas a
un “sombrero” que se encuentra sobre un cuello delgado. Las espigas son pro-
tuberancias de la membrana celular, y al “sombrero” se conecta la terminal de
otra neurona, formando en ese lugar una sinapsis química.
No se sabe exactamente para qué son necesarias las espigas. El número de
hipótesis que describen su función es inmenso. Veamos qué podemos decir so-
bre las funciones probables de las espigas, basándonos en consideraciones geo-
métricas y tomando dos casos: cuando la membrana de la espiga no es excita-
ble y cuando la membrana del sombrero de la espiga es capaz de generar un
PA.
Primero, imaginemos que la espiga no es excitable. Su cuello delgado tiene
una resistencia muy alta. Como resultado en el “sombrero” surgirá un potencial
postsináptico muy grande, gran parte del cual se perderá cuando pase a través
del cuello. La espiga va a funcionar como una dendrita muy delgada. Pero
¿para qué necesitamos esta estructura? ¿Por qué la sinapsis no puede ubicarse
directamente sobre la dendrita?
Recordemos el segundo ejemplo que presentamos al inicio de este capítulo.
Ahí decíamos que uno de los mecanismos de las sinapsis inhibidoras consiste
en la reducción de la resistencia de entrada de la neurona. ¡Pero también las si-
napsis excitadoras abren canales iónicos y disminuyen la resistencia de entra-
da! Por ello, las sinapsis excitadoras también afectan su propio funcionamien-
to. Esta interferencia será más notable en dendritas delgadas que tienen una
alta resistencia de entrada, de tal manera que la activación de varias sinapsis
provocará una disminución notable de esta resistencia. Las espigas, entonces,
buscan disminuir notablemente el efecto de unas sinapsis sobre otras, ya que se
encuentran aisladas por cuellos con una alta resistencia. Mediante cálculos fue
determinado que aunque el efecto individual de las sinapsis que se encuentran
en las espigas es menor que si estuvieran localizadas directamente sobre la
dendrita, en el caso cuando las sinapsis actúan en conjunto su localización en
las espigas aumenta de manera notable la efectividad de esta acción conjunta.
En el otro caso, si la membrana de la espiga es excitable, ésta puede fun-
cionar como un amplificador de la señal proveniente de la sinapsis. Gracias al
pequeño diámetro del cuello, la resistencia de entrada de la espiga es muy
grande y una sinapsis puede generar en el “sombrero” un PA que enviará a la
dendrita una corriente de una magnitud mucho mayor que la corriente de la si-
napsis sola. Es interesante, que en este caso la resistencia del cuello de la espi-
ga debe tener un valor óptimo. Esta resistencia no debe ser muy pequeña, por-
que entonces la mayor parte de la corriente sináptica fluirá hacia la rama de la
dendrita, el cambio de potencial en la membrana del “sombrero” será muy pe-
queño por lo que no alcanzará su valor umbral y el PA no se generará. Por otra
parte, la resistencia del cuello de la espiga no debe ser muy grande, porque si
no la corriente que fluirá del “sombrero” hacia la dendrita será muy pequeña y
no se obtendrá ninguna amplificación de la corriente sináptica. Posteriormente
aparecieron trabajos que demostraban que la estructura geométrica de las espi-
gas reales es cercana a la estructura óptima obtenida en cálculos teóricos.
Hasta el momento nosotros hemos hablado sobre la forma de los filamen-
tos y de las células e incluso de las microestructuras de las células—las espi-
gas. Analicemos ahora cómo influye en la transmisión de la señal la geometría
de las asociaciones celulares.
La rectificación geométrica

Para empezar, examinemos el caso más simple: supongamos que tenemos dos
células conectadas entre sí mediante sinapsis eléctricas. En el capítulo anterior
mencionamos que el efecto de las sinapsis eléctricas, a diferencia de éste, pero
de las sinapsis químicas, es simétrico (es decir el impulso puede pasar a través
de la sinapsis eléctrica en ambas direcciones). Y efectivamente, la sinapsis
eléctrica está constituida por un sistema de pequeños orificios que permiten el
paso libre de la corriente en ambas direcciones. Pero el efecto de estas sinapsis
sobre las células a las que une puede ser muy diferente dependiendo del
tamaño de éstas y, por lo tanto—de sus resistencias de entrada.
230

Supongamos que una sinapsis eléctrica une entre sí a dos células—a una gran-
de y otra pequeña (Fig.47). Supongamos también que en cierto momento en
una de estas células ocurre un cambio de potencial de magnitud
cambio de potencial se divide en dos—la caída de potencial en la resistencia de
la sinapsis ( en la resistencia de la segunda
célula. De acuerdo a la ley de Ohm, el potencial se distribuye de manera pro-
porcional a las resistencias de cada una de las partes mencionadas (la intensi-
dad de la corriente que fluye a través de esas resistencias es igual, ya que a tra-
vés de la membrana de la segunda célula fluye una corriente que pasa a través
de la sinapsis eléctrica). De estos simples hechos enseguida se derivan varias
consecuencias importantes. Supongamos que la resistencia de la primera (y
más grande) célula es aproximadamente 9 veces menor a la resistencia de la si-
napsis de la segunda célula (la más pequeña) es so-
lamente 4 veces menor a la resistencia . Si se excita la primera célula, su PA

Fig.47 La “rectificación geométrica”. Esquema eléctrico equivalente de dos célu-


las de diferente tamaño, unidas mediante una sinapsis eléctrica. A — el PA surgió en
la primer célula (la más grande) e indujo un PA en la segunda célula; B — el PA que
surgió en la segunda célula, no es capaz de inducir un PA en la primer célula. R1 y
R2 son, respectivamente, las resistencias de las membranas de la primer y la segunda
célula, Rc — resistencia del contacto que une a las células.

de aproximadamente 100 mV se dividirá en una proporción de 1:4, es decir, en


la segunda célula surgirá un cambio de potencial de unos 20 mV y esta célula
se excitará, porque el valor del potencial umbral por lo general es cercano a los
15 mV. Pero si un PA similar, de 100 mV, surge en la segunda célula, entonces
este se dividirá en una proporción de 1:9, por lo que a la primera célula corres-
ponderá solamente una décima parte del PA, es decir unos 10 mV, lo que no
alcanza el valor umbral.
Entonces, obtenemos que el PA puede transmitirse a través de las sinapsis
eléctricas solo en una de las direcciones. Este efecto, originado por la diferen-
cia en las dimensiones de las células, se conoce como rectificación geométrica.

depende no solo de las dimensio-


nes de las células. Imaginemos que ambas células son del mismo tamaño, pero
sobre una de ellas actuaron sinapsis químicas, incrementando la permeabilidad
de su membrana, y resultando en un efecto eléctrico equivalente al incremento
de sus dimensiones. De esta manera, las sinapsis químicas pueden regular el
efecto de las sinapsis eléctricas, y puede hacer que la transmisión a través de
estas últimas sea unidireccional.
Un sistema de control muy parecido lo tienen, por ejemplo, algunos molus-
cos, los cuales utilizan este sistema para controlar el funcionamiento de su fa-
ringe. Cuando es necesario atrapar a una presa, el molusco hace un movimiento
brusco, todos los músculos se contraen de manera simultánea, y la presa es en-
gullida. Durante este acto, todas las motoneuronas que controlan la contracción
de los músculos están conectadas entre sí mediante sinapsis eléctricas, por lo
que el PA surge en ellas de manera casi simultánea. Cuando el molusco masti-
ca, los músculos no deben funcionar al mismo tiempo; esto se consigue con el
efecto de las sinapsis químicas que disminuyen la resistencia de entrada
de las motoneuronas, por lo que el PA en una neurona ahora no puede excitar a
otras células.
La solución al misterio del corazón
Regresemos ahora al comienzo del presente capítulo. Ahí mencionamos el
comportamiento inusual del miocardio: su resistencia de entrada no cambia du-
rante la excitación. Como fue determinado, este comportamiento se explica no
a través de ciertas características particulares de las células cardíacas, sino por
su geometría.
232

Fig.48 Propiedades eléctricas de las redes celulares (sincitios): A — algunos ti-


pos de sincitios estudiados y su resistencia de entrada Rentr en función de la resisten-
cia específica de sus membranas (compara con la Fig.43). B — caída del potencial
con la distancia recorrida en un cable cilíndrico (un filamento nervioso) y en un sin-
citio (en un atrio): en el filamento el potencial cae de manera exponencial, mientras
que en el atrio la caída obedece a la función de Bessel.

Las células del corazón están conectadas entre sí mediante una gran cantidad
de sinapsis eléctricas y forman una red compleja, conocida como sincitio. Para
determinar las propiedades eléctricas de los sincitios se tendría que generalizar
la teoría del cable para ese caso también. Como modelos del miocardio fueron
elegidas redes regulares (Fig.48A). Los fragmentos de cable entre los nodos
modelaban a las células del miocardio, y toda la red, que tenía un núcleo con-
ductivo compartido, así como un aislamiento común, imitaba al miocardio
completo. Las bases de la teoría matemática de estos sincitios fueron creadas
por el científico Vladimir V. Smolyáninov del Departamento Teórico del Insti-
tuto de Biofísica de la Academia de Ciencias de la URSS, quien luego escribió
uno de los primeros libros sobre la aproximación geométrica aplicada a tejidos
excitables.
Varias de las propiedades eléctricas de los sincitios resultaron ser muy
inesperadas. Por ejemplo, fue determinado que su resistencia de entrada
casi no depende de la resistencia de la membrana de las células que lo
componen (es decir de la resistencia del aislamiento en el modelo que
presentamos) (Fig.48B). Incluso si la resistencia de la membrana cae unas 100
veces, el cambio de la resistencia será tan pequeño, que no será posible
registrarlo en un experimento. Por otra parte el valor de sí depende mucho
de la resistencia del protoplasma (la tabla a continuación).

Célula esférica En forma lineal En muy bajo grado

Sincitios En muy bajo grado En forma lineal

Comparemos ahora cómo cambia el potencial de la membrana en objetos con


diferente geometría con el aumento de la distancia de una fuente puntual de
corriente eléctrica (es decir, del microelectrodo, en el caso tejidos y células
reales). En una célula esférica, el cambio de potencial es similar en cualquier
parte de su membrana—esta membrana es equipotencial. En un filamento
nervioso el potencial decae de manera exponencial (Fig.48B), mientras que en
los sincitios el potencial decae mucho más rápido que en el caso de una
234

exponente; por ejemplo, la disminución del potencial en un sincitio plano y


delgado, como el de la aurícula de la rana se describe mediante la función de
Bessel (Fig.48B).
La caída abrupta del potencial en los sincitios permite, al menos en un ni-

de la resistencia de la membrana. Supongamos que estamos registrando


utilizando para ello una corriente que fluye entre un punto en el sincitio y el
medio externo. La mayor parte de esa corriente sale a través de un área en el
sincitio que se encuentra a cierta distancia de la zona donde se aplica la co-
rriente. Denominemos esta zona como zona efectiva. Supongamos ahora que la
resistencia de la membrana de las células disminuyó (como resultado de la ex-
citación, por ejemplo). Esto provoca la disminución de la constante de longitud
o constante espacial de los filamentos del sincitio. El potencial en cada uno de
los filamentos disminuye más rápido, lo que causa una disminución de la zona
efectiva. En la práctica, esa área disminuye el número de veces en el que dis-
minuye la resistencia de la membrana. Y como la resistencia de la zona efecti-
va es menor mientras menor sea la resistencia específica de la membrana, y es
mayor mientras menor sea la zona específica, estos dos factores se suman y se

resistencia de los sincitios es muy pequeña en comparación con la resis-


tencia -
ral: la corriente aplicada en un punto determinado del sincitio se difunde por
sus ramificaciones en diferentes direcciones y fluye al exterior por una superfi-
cie más grande.
Los sincitios tienen también otras características: por ejemplo, el cambio
de potencial en el corazón ocurre casi diez veces más rápido que en una célula
esférica con propiedades similares de la membrana, y por lo tanto, este proceso
ocurre más rápido que en un cable. Todas estas propiedades de los sincitios tie-
nen una gran importancia para el funcionamiento de estos tejidos. Por ejemplo,
los tejidos de los sincitios son muy resistentes a interferencias. Por su baja re-
sistencia de entrada, el efecto de una o dos sinapsis que se activen será muy pe-
queño. Si alguna de las células del corazón comenzara a funcionar con una fre-
cuencia muy alta, esta “célula alocada” no podría cambiar el ritmo de los lati-
dos del corazón, ya que por sí sola no puede excitar a las células adyacentes del
sincitio (porque la potencia de una sola célula no sería suficiente para cambiar
el potencial de las células vecinas de manera notable). Para alterar de una
manera notable el funcionamiento del tejido sincitial es necesario cambiar al
mismo tiempo el potencial de varias células del sincitio, es decir el estímulo no
debe ser puntual, sino distribuido. En este caso, las células vecinas se encontra-
rán en condiciones similares, la corriente de una célula no fluirá hacia las célu-
las vecinas y el efecto será parecido al efecto sobre una célula aislada. Y, efec-
tivamente, en los tejidos sincitiales, por ejemplo, en los músculos lisos de los
intestinos, las terminales nerviosas están muy ramificadas, por lo que actúan
sobre muchas células al mismo tiempo.
Así fue como se resolvió el misterio del miocardio, aunque pudiéramos de-
cir que este misterio fue originado por una mala formulación de la pregunta de
investigación. En este caso, los científicos simplemente pensaron siguiendo un
mismo patrón: “¿La resistencia de entrada durante la excitación de una célula
individual disminuye? Sí disminuye. ¿Lo mismo ocurre en un cable? Sí. Enton-
ces, la resistencia de entrada también debe disminuir en un sincitio excitado.”
Pero, como pudimos ver, la resistencia de entrada del sincitio no tiene por qué
disminuir. Cuando cambian las dimensiones de un objeto sus propiedades eléc-
tricas pueden cambiar de manera cualitativa.
Unidimensional, bidimensional, tridimensional
Un filamento nervioso cuyo largo es mucho mayor a su diámetro puede ser
considerado como un medio excitable unidimensional, el tejido delgado del
pericardio puede ser considerado como bidimensional. Los tejidos excitables
bidimensionales pueden tener una topología variable: por ejemplo, el corazón
de las ascidias tiene la forma de un tubo formado por una sola capa de células,
por lo que podemos considerar que este es un medio excitable bidimensional
en forma de cilindro. Los sincitios que examinamos más arriba son,
topológicamente hablando, equivalentes a un plano.
En un cable “unidimensional” el impulso puede propagarse en una sola
dirección. En los sincitios bidimensionales la excitación se propaga en todas
las direcciones formando el frente de una ola parecida a la ocasionada por una
piedra arrojada al agua.
236

Este tipo de olas siempre recorren el corazón. Las olas surgen en un nodo
generador especial, recorren las aurículas y luego pasan lentamente por el
sincitio que se encuentra entre las aurículas y los ventrículos. Esta “línea de
retención” es necesaria para que las aurículas alcancen a bombear la sangre
hacia el interior de los ventrículos. Luego la excitación se transfiere de la
“línea de retención” al sistema de conducción que rápidamente excita a los
ventrículos.

Fig.49 Propiedades de la propagación de la excitación en un tejido sincitial. A


— la propagación en un sincitio anisotrópico ocurre con velocidades diferentes en
diferentes direcciones. B — “enderezamiento” del frente de excitación curvo en un
sincitio plano (el largo de las flechas corresponde a la velocidad con la que se
propaga cada fragmento particular del frente).

La forma del frente de la onda en medios excitables, al igual que en el caso de


las típicas ondas físicas, depende de la velocidad de propagación de la excita-
ción. Si el medio es isotrópico (sus propiedades son iguales en todas las direc-
ciones), las ondas serán circulares. Pero en realidad, la velocidad de propaga-
ción de la excitación en los sincitios depende de su geometría; por ejemplo, en
un sincitio como el mostrado en la Fig.49A, la propagación en dirección hori-
zontal es bastante rápida, mientras que durante la propagación en dirección
vertical las corrientes en los nodos fluyen principalmente hacia los segmentos
horizontales largos, lo que disminuye la velocidad de propagación. Los cálcu-
los realizados por la investigadora del Instituto de Problemas de Transmisión
de la Información de la Academia de Ciencias de la URSS Tatiana M. Shura-
Bura demostraron que, debido a esta organización de la red, la velocidad de la
excitación puede disminuir unas 10 veces. Precisamente un sincitio de esta na-
turaleza forma la “línea de retención” entre las aurículas y los ventrículos.
Las características de los tejidos excitables determinan también otra serie
de propiedades importantes de las olas de excitación. Por ejemplo, si por un
sincitio corre una ola de excitación cuyo frente tiene una forma irregular
(Fig.49B), de manera paulatina el frente comienza a nivelarse por sí mismo,
porque sus partes cóncavas se desplazan más rápido que las partes convexas.
Otro ejemplo: si una onda mecánica se topa con un obstáculo, ésta puede refle-
jarse y comenzar a correr en dirección opuesta. Con la ola de excitación esto
no puede ocurrir, ya que inmediatamente detrás de la ola se encuentra la zona
refractaria. Por eso, cuando el impulso que corre por un filamento llega al final
de éste, desaparece.
Ahora, supongamos que tenemos un fragmento de un medio excitable bidi-
mensional con un orificio en el centro. Imaginemos que logramos generar una
ola de excitación solamente en una dirección, como se muestra en la Fig.50A
(cómo lograrlo es también una cuestión interesante. El científico soviético Iván
A. Vetókhin en 1926 podía producir una ola de excitación en un anillo recorta-
do de la “campana” de una medusa [el tejido obtenido de esta manera también
es un sincitio] calentando una parte pequeña del anillo para que la excitación
no pasara a ese fragmento, y enfriando ese fragmento cuando la excitación, ha-
biendo recorrido todo el anillo, se acercaba a ese mismo lugar por el otro lado.
El impulso que se generaba de esta manera podía circular en el anillo por ho-
ras.)
Si el orificio es bastante grande, entonces la excitación, al haberlo rodeado
y al haber regresado a la posición inicial, entrará en el tejido que se habrá recu-
perado del período refractario, y seguirá su misma ruta. Obviamente, el largo
del perímetro del orificio debe ser mayor a la velocidad de propagación de la
238

ola de excitación, multiplicada por la duración del período refractario. En este


caso la ola correrá todo el tiempo por un medio excitable.

Fig.50 Características de la propagación de la excitación en sincitios y en casos


de arritmias cardíacas. A — propagación de la ola de excitación alrededor del
“orificio” — la apertura de la vena cava (un modelo de la arritmia auricular, de
acuerdo a Norbert Wiener y Arturo Rosenblueth). B — el “torbellino” de la
excitación que surge en un sincitio tridimensional.

A inicios del siglo pasado se propuso la hipótesis de que precisamente un des-


plazamiento circular de la ola de excitación es la que provoca una alteración
muy peligrosa del ritmo cardíaco—la fibrilación (trepidación) de las aurículas.
Según esta hipótesis, la ola circular impide que se propague la ola de excita-
ción normal, por lo que interfiere con el funcionamiento normal del músculo
cardíaco.
La fibrilación fue estudiada por muchos investigadores. El creador de la ciber-
nética, Norbert Wiener junto con el fisiólogo mexicano Arturo Rosenblueth
propusieron en 1946 el primer modelo matemático de un medio excitable bidi-
mensional, y comenzaron a investigar diferentes modos de propagación de la
excitación que se pudieran presentar en éste. En estos primeros modelos no se
tomaba en cuenta la naturaleza de las ondas de propagación y las propiedades
de los tejidos sincitiales. A inicios de los años 60, Israel M. Guélfand y Micha-
el L. Tsétlin en su seminario fisiológico analizaron un modelo más complejo
incorporando la posibilidad de que en ese medio excitable existieran células
que pudieran excitarse de manera espontánea con diferente frecuencia. Un par-
ticipante de ese seminario, Igor S. Balakhovsky, demostró que en el medio ex-
citable bidimensional puede establecerse una espiral giratoria incluso si en el
medio no existe orificio alguno.
Pero, sobre todo, muchas cosas interesantes sobre los medios excitables bi-
dimensionales fueron determinadas en el laboratorio del Instituto de Biofísica
de la Academia de Ciencias de la URSS, dirigido por Valentín I. Krinsky,
quien comenzó su trabajo de investigación cuando era estudiante de postgrado
en el Departamento Teórico. En estos trabajos, Valentín Krinskiy demostraba
que los reverberadores (las ondas espirales) pueden generarse, desaparecer y
generar nuevos reverberadores.
Si las aurículas aún pueden ser consideradas como un medio excitable bidi-
mensional, el tejido de los ventrículos deberá ser considerado como un medio
tridimensional por su mayor grosor. En este tipo de medios la excitación puede
comportarse de una manera mucho más complicada. Por ejemplo, los colabora-
dores de V. Krinskiy demostraron que en este tipo de medios en vez de rever-
beradores pueden surgir “torbellinos”—estructuras toroidales en las que las
olas corren como lo demuestra la Fig.50, y que se mueven en el medio.
En este capítulo nosotros presentamos algunos resultados obtenidos por los
investigadores del Departamento Teórico del Instituto de Biofísica de la Aca-
demia de Ciencias de la URSS y por sus colaboradores. Cuando escribíamos
este capítulo nosotros nos decíamos a nosotros mismos: “Nadie puede abarcar
lo inabarcable”. Lamentablemente, nosotros no pudimos presentar aquí los tra-
bajos que sentaron las bases de la “aproximación geométrica”. Y, como podrás
240

entender, también estas personas tenían predecesores. El papel que juega la


forma de las dendritas de las neuronas lo comenzó a estudiar Wilfrid Rall en
Estados Unidos, el efecto de la dimensión y de la resistencia de entrada de las
células musculares sobre la magnitud de los potenciales sinápticos fue estudia-
do por primera vez por Bernard Katz en Inglaterra, las características de la es-
tructura geométrica del tejido del corazón, importantes para su funcionamiento,
fueron estudiadas por los fisiólogos John Walter Woodbury y Wayne E. Crill
en Estados Unidos, y por el matemático australiano Eric Paul George. Todos
esos trabajos fueron realizados a finales de los años 50 o inicios de los 60 del
siglo XX y todos contenían elementos de la aproximación geométrica. Esto
significaba que la nueva aproximación ya era necesaria, que esa idea ya estaba
“en el aire”.
Ya ha pasado bastante tiempo desde el surgimiento de la aproximación
geométrica. Durante este período la aproximación demostró su viabilidad; ba-
sándose en ella han sido escritos cientos de artículos y decenas de libros en di-
ferentes países del mundo. Y, al encontrar un artículo sobre este tema en un
número nuevo de alguna revista científica, nosotros recordamos el edificio en
la calle Profsoyúznaya en Moscú, donde los jóvenes biólogos, físicos y mate-
máticos del ya no existente Departamento Teórico del Instituto de Biofísica de
la Academia de Ciencias de la URSS discutían qué sucedería con el impulso
nervioso cuando éste llegara a un punto de ramificación (bifurcación) y por qué
la resistencia de entrada del tejido cardiovascular no cambia durante su excita-
ción.
Capítulo 9

Acerca del mosaico de canales y neuronas, y sobre cómo la “electricidad


animal” se utilizan para resolver importantes problemas

Así como el axón gigante de calamar es un objeto modelo para el estudio de


los eventos electrofisiológicos, también las motoneuronas de gato son un mo-
delo común de una neurona (Fig.51). Esta célula es relativamente grande (alre-
dedor de 30 µm) y por eso está estudiada con bastantes detalle. La motoneuro-
na tiene un cuerpo y dendritas en las cuales se encuentran unas 10 000 sinapsis
formadas por las terminales de otras células. Del cuerpo de la motoneurona
sale el axón que es un nervio mielinizado. En la base del axón se encuentra una
estructura especial: el cono axónico, una parte cuyo potencial-umbral es el más
bajo de toda la neurona. Los axones de una motoneurona pueden ser muy lar-
gos, por ejemplo, en un gato llegan a medir 25 cm, mientras que en un elefante
o en una jirafa alcanzan varios metros. En su punta, el axón se divide en rami-
tas-terminales que se encuentran sobre los filamentos musculares. Aparte, to-
davía dentro de la médula espinal, donde se encuentra la motoneurona, el axón
se ramifica dando origen a las ramas colaterales del axón, que se dirigen hacia
otras neuronas.
¿Cómo funciona una neurona común?
Entonces, ¿cómo funciona una motoneurona? ¿Cómo controla la contracción
de los filamentos del músculo esquelético?

El cuerpo de la neurona funciona como un sumador de potenciales. Los po-


tenciales postsinápticos excitadores e inhibidores, originados en las dendritas
de la motoneurona por otras neuronas, se transmiten de manera pasiva, como
por un cable, hacia el cuerpo de la motoneurona y se suman (por supuesto, de
acuerdo con sus signos) con los potenciales que surgen directamente en el
cuerpo de la motoneurona (Fig.51). Tan pronto como la suma de los potencia-
les comience a superar el valor del potencial-umbral del cono axónico, en éste
surge un impulso. Este impulso se propaga a lo largo del axón hasta llegar a las
242

terminales y excita a los filamentos musculares a través de las sinapsis neuro-


musculares que liberan acetilcolina. De esta manera, el impulso que surge en la
motoneurona provoca la contracción de todos los filamentos musculares que
están al alcance de las terminales de su axón.

Fig.51 Representación esquemática de una motoneurona de gato (A) y de los


cambios de potencial que ocurren en el soma de ésta bajo el efecto de diferentes
estímulos (B). Potencial postsináptico excitador que surge en el soma de la neurona
como resultado de la acción de varias sinapsis (curva 1), potencial postsináptico
inhibidor (curva 2) y su suma (curva 3). C — sumación temporal de los potenciales:
el primer potencial sináptico no alcanza el umbral, pero un segundo potencial simi-
lar (marcado con la flecha) se suma al primero y resulta en la generación del impul-
so (compara con la Fig.43C).
Entonces, para una neurona normal es típico que diferentes partes de su mem-
brana plasmática tengan propiedades y funciones diferentes. El cuerpo de la
neurona funciona como un sumador de señales que llegan a diferentes partes de
la célula en diferentes momentos de tiempo; el cono axónico juega el papel de
disparador y el axón transmite los comandos hacia los destinatarios. Las neuro-
nas descritas pueden generar y transmitir comandos bastante complejos que,
por ejemplo, controlan los movimientos. Por supuesto, esta coordinación no es
realizada por una sola célula, sino por un sistema de neuronas que interactúan
entre sí. Veamos algunos ejemplos de cómo estos sistemas pueden coordinar
ciertos movimientos.
Cómo cierra sus alas una mariposa
En 1984, en la Olimpiada nacional de biología, realizada por la Universidad
Estatal de Moscú, fue presentado el siguiente problema: “Se sabe que la mari-
posa ortiguera (Aglais urticae) prefiere una temperatura de 36°C. Si el ambien-
te está frío y no hay sol, la mariposa cierra sus alas. Si hace frío, pero sale el
sol, la mariposa abre sus alas. Pero en cuanto la temperatura alcanza los 36°C,
la mariposa cierra sus alas. Dibuja el esquema de conexión de las neuronas que
pudiera controlar este comportamiento de la mariposa.”. Este problema fue
ofrecido a los alumnos de décimo grado y resultó ser fatal. Ninguno de los es-
tudiantes obtuvo una calificación satisfactoria por la solución de este problema,
ya que no fue propuesto algún esquema que funcionara, y muchos de los estu-
diantes ni siquiera entendieron de qué trataba el problema.
Este problema, como muchos otros problemas en la biología, no tiene una
solución definitiva. Se pueden imaginar muchos esquemas que corresponden a
las condiciones dadas. Veamos uno de los esquemas posibles. Primero que
nada, podemos suponer que las alas de la mariposa son controladas por múscu-
los antagonistas, como en el caso del hombre. Estos músculos serían de dos ti-
pos: los “abridores de alas” y los “cerradores de alas”. Cada grupo de músculos
es controlado por sus motoneuronas que pueden ser denominadas como MNa
(las “abridoras”) y MNc (las “cerradoras”). Estas motoneuronas deben recibir
las señales de la temperatura y de la luz del sol. Acá también se puede diseñar
varias soluciones. Supongamos que la célula C se excita y envía impulsos sola-
mente si la temperatura es mayor a 36°C (si hace “calor”), y la célula L envía
impulsos cuando hay sol (“luz”) (Fig.52).
Según los datos del problema, cuando hay luz las alas se abren, por eso te-
nemos que unir el receptor de luz L con la motoneurona MNa (Fig.52B). Cuan-
do la temperatura se eleva por encima de los 36°C y comienza a funcionar el
receptor de calor, las alas deben cerrarse. Entonces, hay que conectar la célula
C con la motoneurona MNc mediante una conexión excitadora. Pero el
músculo antagonista (que abre las alas) debe ser relajado, por eso hay que
conectar el receptor de temperatura C con la motoneurona MNa mediante una
244

conexión inhibidora. Pero una misma neurona, por lo general, no puede ser al
mismo tiempo excitadora e inhibidora, por eso para crear la inhibición es
necesario colocar entre el receptor C y la motoneurona MNa una neurona
intermedia o interneurona inhibidora (Fig.52B). Ahora, si hay luz y hace calor,
la motoneurona MNa no funcionará, porque a esta llegarán señales de magnitud
similar, pero de signo opuesto, que no provocarán el aumento del potencial de
la membrana hasta el potencial-umbral. Pero nuestro esquema no corresponde
del todo a las condiciones del problema: si el ambiente está frío y no hay luz,
entonces las alas deben estar cerradas y nuestro esquema no permite realizar

Fig.52 Esquemas neuronales que coordinan el abre y cierre de las alas de la ma-
riposa. A — elementos de los esquemas (MNA — motoneuronas responsables de la
apertura de las alas, MNC — motoneuronas responsables del cierre de las alas, L —
receptores de luz, C — receptores de calor, F — receptores de frío, SE — sinapsis
excitadoras, SI — sinapsis inhibidoras). B — bosquejo inicial del esquema. C — es-
quema funcional. D — otra alternativa de esquema funcional.

esta condición. Por esta razón es que introducimos otro receptor, F, que se ac-
tiva cuando la temperatura es menor a 36°C (condición de “frío”). Este recep-
tor se encuentra conectado con la motoneurona MNc mediante una conexión
excitadora. Pero cuando hace frío y hay luz, esta unión debe permanecer sin
actividad, por lo que necesitamos otra interneurona que inhibirá al receptor F
cuando haya luz (Fig.52C).
Ahora nuestro esquema sí va a funcionar. Para ello requerimos de 3 recep-
tores y 3 interneuronas. Podemos hacer también un esquema más económico.
Por ejemplo, en la Fig.52D tenemos un esquema en el cual está presente la in-
terneurona IN2 que siempre está activa (estas neuronas se llaman “de actividad
espontánea”). Esta neurona estará tratando siempre de cerrar las alas de la ma-
riposa, a excepción del caso cuando los receptores F y L se activan al mismo
tiempo. En este último caso ellos excitan la interneurona IN2. El “2” significa
que esta neurona tiene un umbral tan alto que los impulsos provocados por la
luz o el frío por sí solos no pueden excitarla. Cuando esta interneurona se exci-
ta, provoca la apertura de las alas e inhibirá a la neurona de actividad espontá-
nea (IN2). En este caso nosotros solamente tuvimos que utilizar dos receptores.
Aunque nosotros utilizamos un truco—una neurona diferente de las “norma-
les”, que tiene actividad espontánea por sí sola. Nosotros hablaremos más ade-
lante sobre este tipo de neuronas.
Los ingenieros muchas veces tienen que solucionar problemas como el que
mencionamos más arriba. Por ejemplo, en muchos edificios hay elevadores.
Supongamos que el elevador se encuentra en el primer piso y abre sus puertas.
Si nadie entra, la puerta se cierra. Si alguien entra, pero no hace nada, la puerta
se queda abierta (o se cierra, pero el elevador se queda detenido). Si la persona
que entró al elevador oprime un botón, la puerta se cierra y se activa el motor.
En este caso también existen las “motoneuronas” para la puerta y el motor, los
“receptores” de peso y del botón, también se encuentra el “cerebro”, solo que
no está compuesto de neuronas, sino que es electrónico. Existe toda una teoría
que permite construir los esquemas lógicos necesarios para la realización de di-
ferentes tareas.
¿Cómo nada una sanguijuela?
En la sección anterior nosotros inventamos el esquema del comportamiento de
la mariposa: en realidad no se sabe todavía cómo es que la mariposa controla el
movimiento de sus alas. Pero ¿existen ejemplos de casos reales cuando se hu-
biera podido determinar cuáles son las conexiones existentes en un esquema
neuronal real y se hubiera podido determinar cómo funciona este? Hay que ser
246

honestos, en el caso de los vertebrados estos logros son bastante modestos, por
la inmensa cantidad de neuronas que tienen estos organismos. Pero en el caso
de los invertebrados, en los ganglios de los cuales muchas veces muchas veces
hay solamente centenas de neuronas (muchas de las cuales son identificables
por su posición y por su forma) estos logros ya son mucho más notables.
Por ejemplo, a continuación, veremos cómo está conformada la red neuro-
nal que le permite nadar a la sanguijuela (Hirudo medicinalis).
Cuando la sanguijuela nada, en cada segmento de su cuerpo se contraen
uno tras otro los músculos longitudinales espinales y abdominales, de tal ma-
nera que el segmento se dobla hacia arriba o hacia abajo. La contracción en
cada segmento ocurre mucho después de la contracción en el segmento ante-
rior. Como resultado, el cuerpo de la sanguijuela es recorrido por una ola, su
cuerpo se dobla con cierta periodicidad, y la sanguijuela nada. ¿Cómo es que
se logra alternar las contracciones de los músculos de la espalda y del abdo-
men?
Analicemos la estructura de un solo fragmento del cuerpo de la sanguijuela.
Cada segmento de la sanguijuela tiene su propio ganglio, el cual contiene unas
200 neuronas. Una parte de estas neuronas son las motoneuronas que controlan
los músculos longitudinales (Fig.53). Las sanguijuelas, a diferencia de noso-
tros, pero al igual que otros invertebrados, tienen motoneuronas tanto excitado-
ras como inhibidoras (en nuestro caso solo tenemos motoneuronas excitado-
ras). Sus motoneuronas inhibidoras no solo inhiben al músculo sino también a
las motoneuronas excitadoras. En el ganglio se encuentra el llamado “genera-
dor de nado”, formado por cuatro neuronas (Fig.53B). Durante el nado todas
estas neuronas son activadas por un impulso excitador.

¿Cómo es que funciona este sistema?


El esquema en la Fig.53 es completamente simétrico, pero en realidad du-
rante el nado unas neuronas comienzan a excitarse un poco antes que otras. Su-
pongamos, por ejemplo, que primero se excitó la neurona 1. Ésta enseguida
inhibe a las neuronas 3 y 4 que quedarán inactivas. La neurona 2 no es inhibida
y se excita por la señal general después de la neurona 1. Cuando esto ocurre,
las neuronas 1 y 4 se inhiben. Ahora es la neurona 3 la que puede activarse, y
se activa, inhibiendo a las neuronas 1 y 2. De esta manera, las neuronas 1-4 se
excitarán una tras otra. Cuando se excite la neurona 1, ésta inhibirá a las moto-
neuronas inhibidoras de los músculos espinales y la motoneurona excitadora
los hará contraerse. De esta manera, este segmento se doblará con sus puntas
hacia arriba. Cuando se excite la neurona 3, el segmento se doblará en direc-
ción opuesta. (Acá debemos mencionar que todas la neuronas en este esquema
son inhibidoras. Éstas funcionan basándose, podríamos decir, en el principio
matemático “menos por menos da más”).

Fig.53 Generador neuronal de nado de la sanguijuela. A — músculos y neuronas


que participan en el nado (MNE — motoneuronas excitadoras, MNI —
motoneuronas inhibidoras). B — generador de cuatro neuronas que forman el anillo
inhibidor.

Por primera vez, semejante “anillo inhibidor” fue propuesto por el científico
soviético Witali. L. Dunin-Barkowski. Y unos 10 años después este anillo fue
descubierto en la sanguijuela por los colaboradores de Gunther S. Stent, un fa-
moso genético que dedicó sus últimos años al estudio de las redes neuronales
de los invertebrados.
248

Baterías de neuronas

Existen muchos otros ejemplos de este tipo de redes sencillas de neuronas, que
explican cómo se retrae y se escapa la lombriz en su túnel, cómo nada el mo-
lusco ángel de mar, como mastican los caracoles, y otros.
Pero analicemos mejor algunos ejemplos en vertebrados. Como ya lo men-
cionamos, el problema principal es que en su sistema nervioso, por lo general,
cada función es realizada no por unas cuantas células, sino por miles y decenas
de miles de células. En nuestros esquemas figuraban neuronas y receptores in-
dividuales que corresponden a células presentes en los invertebrados. Pero en
los vertebrados incluso el sistema que coordina la contracción de un músculo
individual es mucho más complicado: por ejemplo, cada músculo grande de un
gato o de una persona es controlado por un grupo de motoneuronas—un
“pool”. Este pool de motoneuronas está compuesto por miles de neuronas, las
ramificaciones de las cuales terminan en los filamentos musculares. El pool de
motoneuronas es el que coordina el funcionamiento del músculo, que ya de por
sí mismo es un mecanismo bastante complicado. Por ejemplo, estudiando en
gatos el funcionamiento del músculo gastrocnemio, los científicos descubrie-
ron que cuando un gato está parado, se excitan solamente aquellos filamentos
que permiten únicamente la tensión ligera del músculo, pero pueden estar con-
traídos por mucho tiempo, sin agotarse. Cuando un gato corre ligeramente, a
estos filamentos se añaden otros filamentos, unos “más resistentes”. Finalmen-
te, cuando el gato corre muy rápido, huyendo, o salta sobre su presa, se
contraen unos filamentos especiales, que pueden funcionar por poco tiempo (se
agotan fácilmente), pero que pueden desarrollar un gran esfuerzo.
¿Cómo es que el sistema nervioso puede controlar todo este sistema tan
complejo? Pues, resulta que para esto no es necesario controlar la contracción
de cada filamento por separado: es suficiente con modular la intensidad de la
señal que llega al pool, y el orden de “activación” de los filamentos musculares
se alcanza mediante la geometría del pool de motoneuronas—sus dimensiones
y la “topografía” de las terminales sobre el músculo.
Fue determinado que los pools de motoneuronas se distinguen por su tama-
ño. Mientras más grande es la neurona, mayor número de axones tiene y mayor
es el número de filamentos musculares que puede excitar. Las motoneuronas
más grandes tienen sus terminales precisamente sobre aquellos filamentos
musculares que son necesarios para la “emergencia”—los que desarrollan un
gran esfuerzo, pero solo por un tiempo corto (Fig.54A).
Los comandos desde las capas superiores del cerebro llegan por nervios
que están uniformemente distribuidos por todo el pool de motoneuronas (por
ejemplo, cada terminal nerviosa que llega tiene 5 sinapsis en cada motoneuro-
na). Si solamente una pequeña parte de esos nervios-reguladores está excitada
(o a través de esos nervios llegan impulsos, pero con una frecuencia baja), se
excitarán solamente las motoneuronas más pequeñas (¿recuerdas el Capítulo 8:
“Con un cerillo se puede prender una paja…”?) y el músculo realizará un es-
fuerzo pequeño. Mientras mayor sea el número de nervios excitados, mayor se-
rá el número de sinapsis que se activará y más grandes podrán ser las motoneu-
ronas que se resultarán activadas. De esta manera, controlando tan solo un pa-
rámetro—el número de filamentos nerviosos excitados, el cerebro puede acti-
var los músculos necesarios para la realización de un movimiento específico.
La hipótesis de que la activación del pool de motoneuronas depende de la
diferencia entre los parámetros geométricos de las neuronas fue propuesta por
primera vez en 1965 por el científico estadounidense Elwood Henneman. Pos-
teriormente esa hipótesis fue comprobada mediante diferentes experimentos y
recibió el nombre de “principio de las dimensiones”.
Este método de coordinación del pool de motoneuronas tiene una desventa-
ja: la señal necesaria para la excitación de las motoneuronas grandes es dema-
siado grande para las motoneuronas pequeñas—esta señal las haría funcionar
con una frecuencia demasiado alta, lo que pudiera llevar a la muerte de esas cé-
lulas. Para que esto no ocurra, en el pool de motoneuronas hay un “dispositivo
de prevención” especial—las células de Renshaw. Hacia estas células van unas
terminales especiales que provienen principalmente de motoneuronas grandes.
Las células de Renshaw, a su vez, son neuronas inhibidoras cuyas axonas ex-
tienden sus terminales principalmente sobre las motoneuronas pequeñas
(Fig.54). Cuando la señal proveniente del pool es de una magnitud excesiva,
las motoneuronas pequeñas reciben por un lado esta señal de gran intensidad,
pero, por otra parte—también la señal de inhibición de las células de Renshaw.
250

Estas señales con signos opuestos se suman y las motoneuronas pequeñas


pueden funcionar en condiciones normales.

Fig.54 Funcionamiento del sistema de motoneuronas que coordinan la contracción


de un músculo. A — “principio de las dimensiones” en el funcionamiento de un pool de
motoneuronas; si la señal entrante es débil, se activan solamente las motoneuronas pe-
queñas y el músculo realiza un esfuerzo pequeño. El incremento de la intensidad de la
señal entrante produce el incremento paulatino de motoneuronas cada vez más grandes
— otro ejemplo del papel de la geometría en el funcionamiento del sistema nervioso. B
— las células de Renshaw protegen a las motoneuronas pequeñas de sobrecargas.
La codificación por frecuencia (por tasa de disparos) y las neuronas sin
impulsos
En una neurona cualquiera como la que describimos al inicio de este capítulo,
existe una membrana excitable la cual, en respuesta a un estímulo umbral, ge-
nera un potencial de acción que siempre tiene la misma forma a magnitud. De
esta manera, el PA no contiene la información de una señal de entrada. Una
misma célula en el sistema nervioso puede generar un impulso tanto en res-
puesta a la luz, como en respuesta a un sonido, y cuando registramos los im-
pulsos en el axón no sabemos cuál fue la naturaleza del estímulo que los pro-
vocó.

Entonces, podemos decir que las neuronas reducen la información durante


la transmisión de las señales. Aunque, a decir verdad, a pesar de que las neuro-
nas no pueden informarnos sobre las fuentes que provocaron el PA, sí pueden
darnos información acerca de la intensidad del estímulo inicial. ¿Cómo lo ha-
cen las neuronas? La magnitud de la señal entrante es la suma algebraica de to-
dos los potenciales sinápticos creado por todas las sinapsis activas. Imagine-
mos que durante la acción del estímulo su magnitud no cambia (es decir, tene-
mos una diferencia constante entre el número de sinapsis excitadoras e inhibi-
doras). Entonces, la corriente que fluirá a través de la membrana de las neuro-
nas será prácticamente constante. De esta observación podemos suponer que
mientras mayor sea la intensidad de la corriente que pasa a través de la mem-
brana, mayor será la frecuencia de activación de la neurona (Fig.55). Efectiva-
mente, después de cada siguiente impulso, la membrana de la neurona se hiper-
polariza por la apertura de los canales de potasio. Mientras mayor sea la co-
rriente que fluye a través de la membrana de las neuronas, más rápido esta re-
gresará a su potencial umbral. Entonces, mientras mayor sea la magnitud de la
señal de entrada, mayor será la frecuencia de los impulsos de salida. Este me-
canismo de transmisión de la información recibe el nombre de codificación ba-
sada en frecuencia.
Pero además, existen también neuronas de otro tipo completamente dife-
rente, que se distinguen drásticamente en su funcionamiento de las neuronas
“clásicas”. La membrana plasmática de este nuevo tipo de neuronas no es exci-
table, por lo que estas células no pueden generar impulsos. Por ello, cuando el
252

impulso llega a este tipo de neuronas, no surge un PA sino solamente un cam-


bio de potencial de la membrana que es mayor mientras mayor sea la intensi-
dad de la señal inicial. Este cambio de potencial se propaga de forma electrotó-

Fig.55 Frecuencia de disparo de las motoneuronas en función de intensidad de


la corriente despolarizante. La curva sólida corresponde a un estímulo de alta
intensidad. El PM alcanza el umbral Vp de manera rápida. La curva punteada
corresponde a un estímulo de baja intensidad y el valor del PM alcanza el valor
umbral de manera lenta.
nica a través del axón y provoca la liberación de neurotransmisores desde las
terminales. Si la célula recibió una señal externa de alta intensidad, se liberará
más neurotransmisor en la célula receptora. De esta manera, las neuronas sin
impulsos transmiten la señal utilizando un mecanismo análogo: en este caso
todos los valores (el de la señal inicial, el del cambio de potencial, el del poten-
cial que se transmite por el axón y de la cantidad de neurotransmisor liberado)
permanecen continuos y no se transforman en impulsos discretos estándares.
Entonces, ¿en qué parte del sistema nervioso se utiliza este tipo de neuro-
nas? Sobre todo, de esta manera funcionan los receptores—las neuronas que
reaccionan a las señales del entorno (como la luz, el sonido, la temperatura y
otros). Por ejemplo, las neuronas sin impulsos de los cirripedios cambian de
manera continua su potencial de membrana bajo el efecto de la luz, y transmi-
ten esos cambios (tal y como lo relatamos en el Capítulo 6) de manera electro-
tónica a una distancia de varios centímetros. Los receptores del ojo humano y
de otros vertebrados—los conos y los bastones—también son neuronas que no
tienen impulsos.
Otras neuronas sin impulsos no son receptores por sí mismos, sino que actúan
como recolectores de señales de los receptores, que luego transmiten en forma
de potenciales. Este tipo de neuronas se han encontrado, por ejemplo, en
langostinos de río. Dichas neuronas recolectan la señal de varios
mecanoreceptores y cambian su potencial en función de la velocidad del flujo
del agua en dirección desde la cola hacia la cabeza. ¿Por qué precisamente en
esta dirección? Porque el langostino escapa en “marcha atrás” y estas neuronas
sin impulsos le permiten determinar la velocidad del movimiento de retroceso.
En la retina del ojo humano, aparte de los conos y los bastones existen también
otras células que no tienen impulsos. Estas son las células que reciben la señal
de los fotoreceptores. Todo el procesamiento de las señales en la compleja red
de estos diferentes tipos de células en la retina ocurre sin impulsos, de manera
analógica. Solamente las células que transmiten la señal de salida de la retina,
las células gangliosas, generan impulsos que transmiten la señal de la retina al
cerebro por los largos axones que forman el nervio óptico.
Células-generadores y mosaicos de canales
Como vimos, para la generación de los movimientos rítmicos de nado la san-
guijuela tiene un esquema especial de neuronas, que genera impulsos con cierta
periodicidad. Pues resulta, que una sola neurona también puede ser una fuente
de señales periódicas. Este es otro tipo de neuronas muy importantes que mu-
chas veces también no generan impulsos. Estas neuronas son capaces de fun-
cionar rítmicamente por sí solas (incluso, cuando se encuentran aisladas del or-
ganismo): el potencial de estas neuronas siempre oscila; durante la despolariza-
ción las terminales de su axón liberan el neurotransmisor que excita a las neu-
ronas comunes, mientras que durante la hiperpolarización la liberación del
compuesto se detiene por completo.
Estas neuronas juegan un papel importante en la regulación de movimien-
tos rítmicos: la marcha, el vuelo, la respiración y otros. Por primera vez unas
neuronas así, que participan en la regulación de la ventilación de las branquias
de los langostinos, fueron descubiertas en 1971. En 1975 fue descubierta la se-
gunda neurona de este tipo, que participa en la coordinación del movimiento en
las cucarachas. Luego fueron descritas neuronas con la ayuda de las cuales
“cantan” las chicharras y funciona el molinete gástrico de los langostinos.
254

Otras neuronas de este tipo, que coordinan el nado de las lampreas, fueron des-
cubiertas por el científico sueco Sten Grillner. Esto indica que también en los
vertebrados las neuronas sin impulsos con actividad espontánea son capaces de
controlar movimientos.
La pregunta de cómo surge el ritmo en las neuronas-generadoras no tiene
una respuesta única. Para empezar, existen varias maneras en las que se organi-
zan estos ritmos. La primera de estas alternativas es reunir en la membrana de
una neurona los canales iónicos adecuados (sobre estos hablamos en el Capítu-
lo 5). Pero incluso en este caso el problema no tiene una solución única: en ex-
perimentos fue determinado que en diferentes células estas oscilaciones rítmi-
cas pueden ser generadas por diferentes canales iónicos.
Veamos uno de los ejemplos del mecanismo iónico de generación de estos
potenciales. (Un mecanismo similar lo tienen las neuronas de los moluscos y
de otros invertebrados, pero acá examinaremos su versión simplificada.) Su-
pongamos que tenemos una célula cuyo potencial de reposo es igual a −60 mV.
A nosotros no nos interesa qué canales son los que crean este potencial, solo
consideraremos que estos canales no son muy abundantes y las corrientes ge-
neradas por los mismo son relativamente pequeñas.
Supongamos que en la membrana de estas neuronas se encuentran también
dos tipos de canales: de calcio y de potasio. Los canales de calcio se abren du-
rante la despolarización y no se cierran o se inactivan por sí solos. Para que es-
tos canales se cierren, es necesario ya sea que la célula se hiperpolarice, o que
se acumule la cantidad suficiente de calcio. Los canales de potasio, a su vez, se
activan por el calcio intracelular cuando la concentración de éste alcanza cierto
nivel crítico. Finalmente, supongamos que el potencial de −60 mV es el poten-
cial umbral para los canales de calcio.
Este tipo de neuronas va a funcionar de la siguiente manera (Fig.56A).
Cuando el potencial de la membrana sea igual a −60 mV, los canales de calcio
se abrirán y los iones de calcio comenzarán a entrar a la célula, la cual se des-
polarizará y mantendrá esta condición por cierto tiempo. Cuando la célula acu-
mule la cantidad de calcio adecuada, se abrirán los canales de potasio depen-
dientes de calcio, que generarán una corriente saliente (hacia el exterior de la
célula) de potasio. Esta corriente hiperpolariza a la neurona y los canales de
calcio se cierran. Las bombas de calcio disminuyen paulatinamente la concen-
tración de calcio en el interior de la célula y el potencial de la membrana se irá
aproximando al potencial de reposo. Cuando el valor de este potencial sea al-
canzado, los canales de calcio se abrirán nuevamente y el ciclo se repetirá.

Fig.56 Mecanismos del funcionamiento de neuronas sin impulsos (A) y de las


neuronas con impulsos múltiples (B). GR — neurona generadora de impulsos. En
B — el “híbrido” de una neurona generadora de impulsos y neurona excitable “co-
mún” — una neurona multiimpulsos.

La duración de los ciclos de estas neuronas puede variar en función de la sensi-


bilidad de los diferentes tipos de canales y de la densidad de estos. Por lo gene-
ral, el ciclo es bastante prolongado (desde unas décimas de segundos hasta va-
rios segundos). Las neuronas funcionan con el mismo período que los movi-
mientos que ellas controlan. Por ejemplo, las neuronas sin impulsos de la cuca-
racha funcionan en el ritmo de sus movimientos y controlan la flexión y el esti-
ramiento de sus patas.
256

El ciclo de la neurona que describimos arriba también puede ser detenido. Si


una neurona es constantemente inhibida por el efecto de sinapsis inhibidoras, la
neurona se hiperpolarizará y sus canales de calcio siempre estarán cerrados.
Puede darse también una situación contraria: si el potencial de reposo de la
neurona no es −60 mV, sino, por ejemplo, −70 mV, entonces la neurona per-
manecerá “callada” hasta que su potencial aumente hasta los −60 mV por el
efecto de las sinapsis excitadoras. En ese momento, la neurona comenzará a
generar oscilaciones de potencial. La marcha y el vuelo son controlados preci-
samente por este tipo de neuronas, en las cuales las oscilaciones del potencial
pueden ser inducidas o inhibidas. ¡Pues porque un insecto no puede estar co-
rriendo o volando toda la vida!
Neuronas híbridas
Resolvamos el siguiente problema. Supongamos que tenemos dos neuronas: la
primera es un generador de ritmo (Fig.56B), y la segunda es una neurona “es-
tándar”, con una membrana excitable común, y ambas se encuentran unidas
mediante una sinapsis eléctrica. ¿Cómo funcionará este esquema?
Es fácil comprender, que en cuanto el potencial de la primera neurona al-
), la segunda neurona emitirá un PA
normal de una magnitud y de una duración estándar. Pero el estado activo de la
neurona generadora dura mucho más que la duración de un PA. Aun cuando el
período refractario cese, la neurona generadora seguirá pasando a la segunda
neurona un potencial suficiente para su excitación, por lo que la segunda célula
vuelve a generar un PA, y durante la hiperpolarización se obtiene una pausa
entre las series.
Puede llegar a sorprendernos, pero este esquema existe en la realidad y está
realizado en una misma célula. En la membrana de esta célula se encuentran,
por una parte, canales de sodio que generan el PA y, por otra parte—todo el
mecanismo para la generación del ritmo lento. Este “híbrido” de una neurona
estándar y de una neurona-marcapasos se llama neurona multiimpulsos, porque
genera periódicamente series de impulsos separadas por pausas.
Otro problema. En la membrana de una neurona multiimpulsos existen dos
tipos de poblaciones de canales: canales propios de un generador de ritmo y de
una neurona común. Ahora imaginemos una célula generadora en cuya mem-
brana no están presentes los canales de potasio que se abren bajo el efecto del
calcio.
Es fácil comprender que una célula así no generará oscilaciones: si la
membrana se despolariza al grado que se abren los canales de calcio, estos se
quedarán abiertos todo el tiempo en un nuevo estado de equilibrio. Obtenemos
entonces que esta célula tendrá dos valores estables de potencial de su mem-
brana: uno—cuando están cerrados todos los canales de calcio, y otro, que se
establece cuando los canales de calcio están abiertos. El estado de este tipo de
neuronas puede ser regulado por la acción de sinapsis excitadoras o inhibido-
ras. Y pues resulta que este tipo de células “biestables” también existen en la
naturaleza.
Entonces, en función de las propiedades de los canales presentes en la
membrana plasmática, podemos: 1) obtener una neurona común que genera un
PA; 2) una neurona sin impulsos (con oscilaciones del potencial, o sin ellas);
3) una neurona “multiimpulsos” o “biestable”, y otras alternativas.42 De la mis-
ma manera que los niños componen diferentes imágenes utilizando mosaicos,
la naturaleza “arma” neuronas con diferentes propiedades combinando diferen-
tes tipos de canales, lo que les permite realizar diversas funciones.
Nosotros ya vimos que los canales están compuestos de varias partes: el
canal, la compuerta, el sensor de voltaje. En algunos casos los canales pueden
estar compuestos de subunidades con diferentes propiedades, dando como re-
sultado canales que responden de diferente manera al mismo estímulo. En otro
nivel, canales de varios tipos pueden combinarse en proporciones variables lo
que resulta en neuronas que se distinguen por sus características. Finalmente,
las neuronas de distintos tipos forman redes neuronales. Como vemos, la natu-
raleza utiliza de una manera muy amplia la construcción “en bloque”.

42
El biofísico A. M. Gutman, de Caunas, Lituania, demostró que también las motoneu-
ronas comunes pueden funcionar en modo de célula híbrida. En las dendritas de las mo-
toneuronas están presentes unos canales de calcio que no tienen inactivación. Durante
una estimulación muy fuerte esos canales se abren y las dendritas pasan a un estado de
despolarización estable. Durante este proceso las dendritas transmiten corriente al cuerpo
de la neurona de manera permanente y en éste surge una serie de PA rítmicos.
258

Regresemos ahora con las neuronas generadoras. Los mosaicos de canales


iónicos son una de las alternativas para crear oscilaciones de potencial. Pero
existe otra forma de obtener esas oscilaciones. Ya se conocen reacciones quí-
micas en el transcurso de las cuales los componentes de la reacción cambian de
manera periódica su concentración. Un papel importante en el descubrimiento
y la popularización de estas reacciones lo jugaron los científicos soviéticos Bo-
rís Belousov, Anatoly Zhabotinskiy y Simón Shnol. Supongamos que uno de
los componentes de esta reacción oscilatoria es capaz de abrir canales iónicos y
despolarizar a la célula (ya habíamos visto ejemplos de canales que se regulan
desde el interior de las células). Este pudiera ser un mecanismo alternativo para
que las neuronas generadoras funcionen, porque en este caso el sistema autoos-
cilante se encuentra en el citoplasma y no en la membrana, y está compuesto
por una cadena de reacciones químicas y no por una combinación de canales.
Este mecanismo de generación de oscilaciones es muy interesante, porque vin-
cula procesos eléctricos en la membrana con la bioquímica de la célula y su
metabolismo.
Hablemos acerca del corazón
Si le preguntamos a un biólogo ¿qué es lo que produce las contracciones de un
corazón?, éste nos responderá con otra pregunta: “¿En qué organismo?” y esta
pregunta no será casual: en distintos organismos el ritmo cardíaco puede crear-
se de diferentes maneras. Lo más natural para nosotros es suponer que los
“marcapasos” son las células generadoras. Y, efectivamente, por ejemplo, en
los cangrejos y en las langostas existe un ganglio nervioso especial compuesto
de 9 células, que coordinan las contracciones del músculo cardíaco. Entre esas
células hay neuronas generadoras muy parecidas a aquellas que mencionamos
previamente. La característica principal de las células de los ganglios nerviosos
es que tienen canales de sodio, es decir la membrana de sus axones es excita-
ble. Esta construcción es muy parecida al esquema híbrido, con la diferencia de
que es el axón el que juega el papel de la célula 2. Cuando el cuerpo de la célu-
la del ganglio cardíaco esta despolarizado, en su axón surgen una serie de im-
pulsos, los cuales provocan la contracción del músculo cardíaco. En ausencia
de esas neuronas el corazón del cangrejo deja de funcionar.
Pero si tomamos el corazón de una rana o incluso de un mamífero, corta-
mos todos los nervios que llegan al corazón, y lo colocamos en un medio con
nutrientes, el corazón seguirá contrayéndose de manera rítmica. A primera vis-
ta parece que el sistema nervioso no participa en la generación del ritmo car-
díaco en los vertebrados. Pero, por otro lado, en el tejido mismo del corazón
podemos encontrar neuronas que se localizan entre los miocitos, y que no pue-
den ser retiradas del corazón. Por eso es muy probable que son precisamente
esas neuronas las que inducen las contracciones del corazón, es decir, ocurre lo
mismo que en el caso del cangrejo. A finales del siglo XIX entre los fisiólogos
predominaba este punto de vista: la llamada teoría neurogénica del ritmo car-
díaco.
No obstante, más de 100 años atrás el fisiólogo inglés Benjamin Haskell
criticó severamente esta teoría y presentó varios argumentos a favor de la idea
de que eran los mismos miocitos de ciertas partes del corazón los que tenían la
capacidad de generar automáticamente un ritmo (este punto de vista recibió el
nombre de “teoría miogénica”). Más de 50 años duró la fructífera discusión
que fue victoriosamente ganada por la teoría miogénica. Efectivamente, en el
corazón existen dos zonas de tejido muscular especial cuyas células presentan
actividad espontánea. Una de esas zonas se encuentra en la aurícula derecha (y
se denomina nodo sinoatrial), y la otra se encuentra en la frontera entre la aurí-
cula y el ventrículo (el llamado nodo atrioventricular). La primera zona funcio-
na a una frecuencia mucho más elevada y determina el funcionamiento del co-
razón en condiciones normales (es cuando dicen que el corazón tiene un ritmo
sinusal) y la segunda zona sirve para “emergencias”: si el primer nodo deja de
funcionar, dentro de cierto tiempo comenzará a funcionar la segunda zona y el
corazón comenzará a latir de nuevo, aunque a un ritmo más lento. Si extraemos
los miocitos de ambas zonas y los colocamos en un medio nutritivo, estos con-
tinuarán contrayéndose a sus respectivos ritmos: las células sinusales con una
frecuencia mayor que las atrioventriculares.
Es muy interesante que incluso después de la victoria de la teoría
miogénica algunos biólogos continuaron rechazando por un tiempo bastante
prolongado la idea de la actividad espontánea. Ellos argumentaban que toda
reacción debía surgir en respuesta a algún estímulo, de manera similar a un
reflejo. Según ellos, aceptar que las células musculares pueden contraerse por
sí solas significaba rechazar el principio de causalidad. Los científicos de aquel
entonces estaban dispuestos a explicar la contracción de las células utilizando
260

Fig.57 Comparación del PA de un filamento nervioso y de un marcapasos


cardíaco (A) y período de excitación de la célula-marcapasos en función de la
velocidad del incremento del potencial de su membrana.
cualquier otra razón que no implicara aceptar la capacidad propia de las células
para contraerse (por ejemplo, se proponía como agentes estimulantes hormonas
fantásticas e incluso los rayos cósmicos).
¿Cómo se comporta el potencial en los marcapasos cardíacos? Compare-
mos el comportamiento del potencial de la membrana en el axón gigante de ca-
lamar y en las células del nodo sinusal. En el axón de calamar, el valor del po-
tencial de la membrana es estable: si el potencial de la membrana varía, produ-
ciendo una despolarización o una hiperpolarización, surge una corriente de po-
tasio cuya dirección hace que se recupere el balance. Después de la excitación,
el potencial de la membrana regresa al valor del potencial de reposo (Fig.57A).
A diferencia del potencial del axón gigante, después de la generación del PA el
potencial de la célula de nodo sinusal no permanece en algún nivel estable,
sino que nuevamente comienza a producir una despolarización hasta que alcan-
za el valor umbral, luego de lo cual surge un nuevo PA (Fig.57A). Estos conti-
nuos cambios periódicos de potencial de la membrana están determinados por
los tipos de canales y bombas característicos de las células del nodo sinoatrial.
Un caso raro de cuando la igualdad es beneficiosa
Entonces, las contracciones rítmicas del corazón son originadas no por neuro-
nas, sino por las mismas células del músculo cardíaco. Para ser más exactos,
deberíamos decir que, durante la evolución, las células cardíacas se diferencia-
ron: unas células, las de los nodos del corazón, “aprendieron” a generar impul-
sos rítmicos, y otras, las células del tejido conductivo, “aprendieron” a transmi-
tir la excitación, al igual que los axones, mientras que el tercer tipo de células
mantuvieron su especialización inicial y se contraen bajo el efecto de esos im-
pulsos, realizando la función principal del corazón—la contracción.
Entonces, es válido preguntar para qué necesita el corazón otras células
nerviosas, las “verdaderas”, las que, como dijimos, no pueden ser extraídas del
tejido cardíaco. Estas células funcionan como receptores, o participan en la re-
gulación de la frecuencia y la fuerza de las contracciones cardíacas. Parte de
estas células son controladas por impulsos externos (recordemos que el nervio
vago disminuye la frecuencia de las contracciones cardíacas; esta regulación se
lleva a cabo a través de las neuronas localizadas en el corazón).
262

Pero aparte de esa regulación neuronal, el corazón cuenta con otro impor-
tante mecanismo para la regulación del ritmo de sus contracciones y el cual pu-
dieras ser descrito como un mecanismo de estabilización del ritmo cardíaco. Y
es que cada célula aislada del nodo sinusal no se contrae de manera muy rítmi-
ca: la magnitud de los intervalos entre los impulsos que generan puede variar
entre dos a tres veces. Esto ocurre por el pequeño tamaño de las células, lo que
las hace demasiado sensibles a cualquier estímulo. Incluso en un medio de cul-
tivo, en el cual se mantienen unas condiciones muy estables de manera artifi-
cial, en las células pueden surgir pequeñas variaciones del potencial de mem-
brana (por ejemplo, por la apertura simultánea de ciertos canales). Si este tipo
de oscilaciones ocurre durante la fase de despolarización lenta de las células
del nodo sinusal, cuando el potencial se acerca al valor umbral de manera muy
lenta (ver Fig.57B), podemos comprender cómo unas pequeñas oscilaciones de
potencial pueden tanto reducir, como incrementar de manera drástica el tiempo
entre las excitaciones de una célula. Dentro de un organismo, en general, las
condiciones pueden no ser muy estables, por lo que podríamos suponer que el
período entre las oscilaciones debe ser mayor. ¿Cómo es que el corazón logra
contraerse de manera rítmica? ¿Podrá ser que entre los cientos de miles de cé-
lulas-marcapasos del nodo sinusal existan células con un período excepcional-
mente estable? Y, adicionalmente, ¿cuál es la célula que le impone el ritmo al
corazón? Pues resulta que no hay ninguna célula especial. El ritmo estable sur-
ge de una manera completamente diferente.
Las células marcapasos, al igual que otras células del corazón, están conec-
tadas entre sí mediante contactos de alta permeabilidad, como los que examina-
mos en el Capítulo 7. Por eso, si alguna célula comienza a despolarizarse más
rápido que otras, entre esa célula y sus vecinas surgirá una diferencia de poten-
ciales y un flujo de corriente que disminuirá la velocidad de la despolarización
de la primera célula, y a la vez despolarizará de manera más rápida a las célu-
las vecinas. Como resultado, la conexión eléctrica entre las células disminuirá
la frecuencia de las contracciones de las células más rápidas y aumentará la
frecuencia de las contracciones de las células más lentas, surgiendo con ello un
ritmo intermedio.
Entonces, el ritmo del corazón no resulta de la actividad de una sola célula,
sino de un grupo de células interconectadas entre sí, los potenciales de las cua-
les se promedian y se igualan entre sí. El proceso de nivelación del potencial
provoca que las oscilaciones casuales, que puedan surgir en ciertas células, se
suavicen, haciendo que el ritmo de contracción de un grupo de células co-
nectadas entre sí sea más regular (esto lo examinaremos con más detalle en el
siguiente capítulo). Como ya mencionamos, en células aisladas que se encuen-
tran en el medio de cultivo, el intervalo entre las excitaciones puede variar unas
2-3 veces. En cambio, si en un medio así cultivamos aglomerados que conten-
gan unas 100 células interconectadas entre sí, los intervalos entre las contrac-
ciones ya solamente variarán un 20%. En general, el valor del coeficiente de
variación del período de las contracciones es aproximadamente igual a la raíz
cuadrada del número de células conectadas entre sí. En el corazón, por ejem-
plo, fue determinado que el ritmo es establecido por unas 5000 células con ac-
tividad espontánea, y este número ofrece una gran estabilidad del ritmo de las
contracciones.
En el Capítulo 7 nosotros mencionamos que la existencia de contactos de
alta permeabilidad permite la propagación de la excitación a lo largo del mio-
cardio. A continuación, veremos que son los mismos contactos los que contri-
buyen a la estabilización del ritmo cardíaco.
De la teoría a la práctica
Un vez que conocemos los mecanismos de estabilización del ritmo cardíaco, es
fácil suponer que el mal funcionamiento de los contactos de alta permeabilidad
puede provocar arritmias cardíacas. Tal como lo demostró Feliksas F.
Bukauskas, de Kaunas, las alteraciones de la conducción a través de ese tipo de
contactos es una de las causas de las arritmias e incluso de las reverberaciones
que surgen durante las cirugías de corazón con el empleo de bajas temperatu-
ras.
En general, es necesario aclarar que en la electrofisiología, como en cual-
quier otra ciencia, si determinamos las causas de cierto fenómeno, este conoci-
miento nos permitirá controlarlo de manera específica. En la práctica esto per-
mite crear nuevos medicamentos. Por ejemplo, después de haber establecido
que el funcionamiento del corazón es controlado por impulsos eléctricos, y ha-
ber determinado que algunas enfermedades son provocadas por defectos en la
parte del corazón donde surgen esos impulsos, se propuso estimular al corazón
264

con un impulso artificial similar como tratamiento. Esta idea finalmente condu-
jo al desarrollo de los cardioestimuladores. Este es un equipo que genera un
impulso eléctrico periódico que es transmitido mediante unos electrodos al
nodo sinusal del corazón. Hoy en día, gracias a la creación de los cardioestimu-
ladores, cientos de miles de personas que antes solo podían sobrevivir en hos-
pitales, pueden llevar una vida prácticamente normal.
Presentemos otro ejemplo. Existe un gran número de trabajos teóricos y
experimentales sobre la naturaleza de las arritmias cardíacas, en los cuales se
examinan la influencia de diferentes parámetros de las células y del bloqueo de
ciertos tipos de canales. Estos trabajos han servido de base para la creación de
mejores medicamentos para el tratamiento de las arritmias cardíacas.

Fig.58 Algunos de los sistemas oscilatorios. A — generador neuronal del ritmo de


respiración (izquierda: una red neuronal con autoexcitación, en la cual se dispara la
reacción en cadena, derecha: neuronas inhibidoras que “descargan” el sistema, abajo
— gráfica del estímulo neto que llega a los músculos); B — un michi.
Un poco acerca del proceso de respiración
Examinemos ahora otro de los procesos biológicos más importantes—la respi-
ración. El proceso de respiración es similar al funcionamiento del corazón: al
igual que las contracciones del corazón, este proceso dura toda la vida y en
esto se distingue de otros movimientos, como, por ejemplo, la marcha o el
nado.
Si en el caso del corazón las contracciones se obtienen mediante la activa-
ción conjunta de varias células-marcapasos del nodo sinusal, en el cual cada
célula es un generador, en el caso de los músculos respiratorios su funciona-
miento es controlado mediante una red neuronal que se encuentra en el bulbo
raquídeo (el llamado “centro respiratorio”) y las neuronas del cual no son capa-
ces de generar un ritmo por sí solas. El científico sueco Curt von Euler, en base
a diversos experimentos, propuso el siguiente esquema de funcionamiento del
centro respiratorio (Fig.58A). En la red existe un grupo de neuronas excitado-
res que están conectadas entre sí mediante sinapsis excitadoras.
Cuando algunas de estas neuronas se excitan, en la red surge una cascada de
excitación, es decir en cada siguiente momento de tiempo se excitan más célu-
las que en el anterior y crece el número de impulsos. Adicionalmente, en la red
existen neuronas inhibidoras con un umbral bastante alto, en las que se encuen-
tran las sinapsis de los axones de las neuronas excitadoras. Cuando la “reac-
ción en cadena” alcanza un nivel bastante alto, las neuronas inhibidoras se acti-
van e inhiben a las neuronas excitadoras, por lo menos a la mayoría de estas.
Pero esta inhibición provoca que las neuronas inhibidoras también pierdan su
actividad, porque no hay células que las puedan excitar y el ciclo comienza de
nuevo. Cuando se desencadena la cascada de excitaciones ocurre la aspiración,
y cuando la cascada se inhibe ocurre la exhalación.
Grigory N. Orlvóskiy y otros investigadores demostraron que una red neu-
ronal similar coordina los movimientos de rascado de los gatos. Ahora pode-
mos esperar que cuando veas que un gato se rasca con un rápido movimiento
de su pata, te acuerdes de las redes neuronales.
266

Capítulo 10

Las ventanas al mundo

Hace más de 2000 años atrás, Aristóteles escribió que los humanos tenemos
cinco sentidos: la visión, la audición, el tacto, el olfato y el gusto. En el trans-
curso de todo este tiempo los investigadores han descubierto más de una vez
los órganos de otros “sextos sentidos”, por ejemplo, el aparato vestibular (el
órgano que nos permite mantener el equilibro) o los receptores de temperatura.
Estos órganos de los sentidos con frecuencia son llamados nuestras “ventanas
al mundo”, ya que nos permiten orientarnos en nuestro entorno y recibir seña-
les de nuestros similares. No obstante, un papel no menos importante lo juegan
los diferentes receptores que determinan la presión sanguínea, los niveles de
glucosa y de dióxido de carbono en la sangre, su presión osmótica, el nivel de
extensión de los músculos, etc. Estos receptores internos, la señal de los cuales,
por lo general, no llega a nuestra consciencia, le permiten a nuestro sistema
nervioso coordinar los diferentes procesos que ocurren dentro del organismo.
Entonces, se puede decir que la clasificación de Aristóteles ya es algo ob-
soleta y hoy en día el número de diferentes “sentidos” resultaría impresionante-
mente inmenso, sobre todo si consideramos también los órganos de los senti-
dos de los diferentes seres que habitan nuestro planeta.
No obstante, el análisis toda esa diversidad de órganos demostró que su
funcionamiento tiene mucho en común. El estímulo exterior (la luz, el calor, la
presión y otros) es percibido por células especiales—los receptores, que bajo el
efecto del estímulo cambian el potencial de su membrana. Esta señal eléctrica
recibe el nombre de potencial de receptor. Luego este potencial de receptor
participa en la liberación del neurotransmisor de la célula receptora o cambia la
frecuencia de sus impulsos. De esta manera, el receptor es un convertidor de
los estímulos externos en señales eléctricas, tal y como lo había supuesto Vol-
ta.43
43
En algunos libros se menciona que el receptor convierte la energía del estímulo en
electricidad. Esto es incorrecto. Veamos, por ejemplo, el caso de un mecanoreceptor. Si
Los receptores transmiten las señales al sistema nervioso, donde ocurre su
posterior procesamiento. (La manera exacta en la que ocurre este proceso es
otro tema muy interesante, que, desafortunadamente, no podremos abordar en
este libro. Solo consideramos necesario mencionar que entre el funcionamiento
de los receptores y de los órganos de los sentidos hay una distancia enorme.
Nosotros podemos conocer a detalle cómo funciona un fotoreceptor, el cual re-
cibe las señales de luz, pero este conocimiento, por supuesto, no nos permitirá
entender cómo es que reconocemos a alguna persona.)
En los tiempos de antaño casi todos los equipos tenían integrados aparatos
de medición. Por ejemplo, cada caldera de vapor contaba con su propio termó-
metro y manómetro. Pero posteriormente, este tipo de aparatos fueron siendo
gradualmente reemplazados por sensores, que transforman la temperatura o la
presión en señales eléctricas, que ya podían ser transmitidas de una manera re-
lativamente fácil. Ahora un usuario-operador puede tener delante de sí en un
tablero todos los datos de los equipos que muestran la temperatura, o la veloci-
dad de giro de las turbinas, sin la necesidad de recorrer todos los equipos que
se encuentran en funcionamiento. Los organismos vivos desarrollaron este tipo
de sistema progresivo de medición cientos de millones de años antes de que
surgieran en la técnica. En este caso, el papel del tablero en donde se reúnen
todas las señales lo juega el cerebro.
Los diferentes receptores pueden ser clasificados por el tipo de estímulos
externos que son capaces de percibir. Por ejemplo, receptores tan diferentes
como los del oído, del órgano de equilibrio, del tacto, reaccionan todos a un
mismo tipo de estímulo—un estímulo mecánico. Desde este punto de vista po-
demos distinguir los siguientes tipos de receptores.

1) Fotoreceptores. Son las células que reaccionan a impulsos electromagné-


ticos con cierto rango de longitudes de onda (este rango es diferente para
diferentes organismos; así, por ejemplo, los insectos y las aves pueden
ver la luz ultravioleta, invisible para nosotros).

colocamos sobre un mecanoreceptor cierta carga, enseguida surge un cambio de


potencial. Este cambio se mantendrá mientras se mantenga la carga. Pero ya que la carga
se encuentra inmóvil, no se realiza ningún trabajo, por lo que el estímulo no está
liberando energía.
268

2) Mecanoreceptores. Son las células que reaccionan a la deformación de


sus partes (deformación de la membrana, la extensión de sus dendritas,
etc.). Son mecanoreceptores también las células que captan los sonidos,
es decir las vibraciones del agua o del aire de cierta frecuencia, y los me-
canoreceptores del tacto, así como las células que reaccionan al estira-
miento de los músculos y de los tendones y otras.

3) Quimioreceptores. Son las células que reaccionan a algunas sustancias


químicas. Su respuesta es la base para el funcionamiento de los órganos
del olfato y del gusto.

4) Termoreceptores. Son las células que son capaces de percibir la tempera-


tura.

5) Electroreceptores. Son unas células especializadas que reaccionan a los


campos eléctricos en el entorno.
Podríamos decir que estos cinco tipos de receptores pudieran ocupar hoy el lu-
gar de los cinco órganos de los sentidos, mencionados por Aristóteles.
Examinemos para empezar uno de estos tipos receptores—los fotoreceptores.
Los fotoreceptores
Los fotoreceptores de la retina de los vertebrados son los conos y los bastones.
En 1866, el anatomista alemán Max Schultze, determina que en la retina de las
aves diurnas (por ejemplo, las gallinas) se encuentran principalmente los co-
nos, mientras que en la retina de las aves nocturnas (los búhos o tecolotes) se
encuentran principalmente los bastones. Este hecho le permitió concluir que
los bastones participan en la vista en condiciones de baja luminosidad, mien-
tras que los conos participan en la visión diurna, cuando hace más luz. Estas
conclusiones fueron comprobadas mediante experimentos posteriores. La com-
paración de diferentes animales agregó muchos argumentos a favor de esta hi-
pótesis: por ejemplo, los peces de aguas profundas, que poseen ojos enormes,
tienen en su retina solamente bastones.
Veamos la Fig.59. En ella podemos observar el bastón de un vertebrado.
Esta célula tiene un segmento interno y un segmento externo, ambos unidos
mediante un cuello. En la zona del segmento interno, el bastón forma una si-
napsis y libera el neurotransmisor que actúa sobre las neuronas conectadas de
la retina. El neurotransmisor se libera durante la despolarización, al igual que
en otras células. En el segmento externo se encuentran unas estructuras espe-
ciales: unos discos en cuya membrana se encuentran integradas moléculas de
rodopsina. Es precisamente esta proteína el factor que “percibe” la luz.

Fig.59 Funcionamiento de los bastones de la retina. A — el bastón se encuentra


en la oscuridad, los canales de sodio del segmento externo se encuentran abiertos y a
través de ellos fluye una corriente que “descarga” la batería de potasio; la célula se
despolariza y se libera el neurotransmisor a la brecha sináptica; B — el bastón está
expuesto a la luz, induciendo el cierre de los canales de sodio, la batería de potasio
deja de descargarse y el segmento interior del bastón se hiperpolariza y disminuye la
liberación del neurotransmisor.

El estudio de los bastones permitió determinar que estos pueden ser excitados
con tan solo un fotón, es decir, su sensibilidad es la más alta posible. Al absor-
ber este fotón, el potencial de la membrana del bastón cambia aproximadamen-
te en 1 mV. Los cálculos indican que para lograr este cambio de potencial es
270

necesaria la apertura de aproximadamente 1000 canales iónicos. ¿Cómo es que


un solo fotón puede afectar el funcionamiento de un número tan grande de ca-
nales?
Previamente, ya se sabía que el fotón que llega al bastón es absorbido por
la molécula de rodopsina y cambia el estado de esa molécula. Pero una sola
molécula, al igual que un solo fotón, no es de gran ayuda. Tampoco se llegaba
a comprender cómo esa molécula única era capaz de cambiar el potencial de la
membrana del bastón, si los discos que contienen la rodopsina no están conec-
tados con la membrana plasmática de la célula.
El misterio fue resuelto en la segunda mitad del siglo XX. Fue determinado,
que una vez que absorbe el fotón, la rodopsina se convierte por cierto tiempo
en un catalizador y alcanza a transformar varias moléculas de una proteína es-
pecial que, a su vez, provoca otras reacciones bioquímicas. De esta manera, el
funcionamiento del bastón puede ser explicado por medio de una cascada de
reacciones que se activa cuando la molécula de rodopsina absorbe tan solo un
fotón y la cual concluye en la síntesis de miles de moléculas de una sustancia
que puede activar a los canales iónicos de la membrana desde el interior de la
célula.
¿Qué es lo que hace ese mediador intracelular? Pues, resulta que las pro-
piedades de la membrana del segmento interior del bastón son bastante sim-
ples: en esta membrana se encuentran los canales de potasio que participan en
la generación del potencial de reposo. Pero la membrana del segmento externo
no es tan simple: ésta contiene solamente canales de sodio. En condiciones de
reposo estos canales están abiertos, y aunque no son muy abundantes (de tal
manera que la resistencia específica de esa membrana es bastante alta, alrede-
dor de 1 MOhm∙cm2), esto es suficiente para que la corriente que fluye a través
de esta membrana induzca la despolarización del bastón (Fig.59A). El media-
dor intracelular es capaz de cerrar varios de los canales de sodio, provocando
un aumente en la resistencia de la membrana y el incremento de su potencial,
que se acerca al potencial de equilibrio para el potasio (Fig.59B). Como resul-
tado, el bastón se hiperpolariza bajo el efecto de la luz.

Pensemos por un minuto sobre lo que acabamos de leer: resulta que nues-
tros fotoreceptores liberan más mediador en la oscuridad y cuando son expues-
tos a la luz liberan menos mediador y tanto menos mientras mayor sea la
intensidad de la luz (mientras más intensa sea la luz, mayor será el número de
moléculas de rodopsina excitadas, mayor será la cantidad de mediador libe-
rada, mayor será el número de canales de sodio que se cierren, más se hiperpo-
larizará la célula, y menor será la cantidad de neurotransmisor liberada). Este
asombroso descubrimiento fue realizado por Yury A. Trífonov cuando todavía
prácticamente se desconocía el mecanismo de funcionamiento de los bastones.
Entonces, en las células de la retina nos topamos con otro tipo de canales—
los canales de sodio que son regulados desde el interior de la célula.
Si comparamos los fotoreceptores de un vertebrado y de un invertebrado,
podremos darnos cuenta de que el funcionamiento de ambos tiene muchas co-
sas en común: ambos tienen el pigmento rodopsina, la señal del pigmento exci-
tado se transmite a la membrana exterior mediante un mediador intracelular,
las células fotoreceptoras no generan potenciales de acción. La diferencia está
en que el mediador intracelular en diferentes organismos actúa sobre canales
iónicos diferentes: en los vertebrados el mediador provoca la hiperpolarización
del receptor y en los vertebrados, por lo general, provoca una despolarización
(aunque existen algunas excepciones). Por ejemplo, en el molusco marino—
vieira común (Pecten jacobaeus) durante la iluminación de los receptores de la
retina distal surge una hiperpolarización, al igual que en los vertebrados, aun-
que el mecanismo de esta hiperpolarización es completamente distinto. En este
caso, la luz provoca la permeabilidad de la membrana para los iones de potasio
y el potencial de la membrana se recorre hacia el potencial de equilibrio para el
potasio.
No obstante, el signo de cambio de potencial no es tan importante, éste
siempre puede ser cambiado durante el procesamiento posterior de la señal. Lo
importante es que la señal luminosa se convierta en eléctrica de una manera
confiable.

Veamos como ejemplo lo que ocurre con la señal eléctrica que surge en el
sistema ocular de nuestros conocidos, los cirripedios44 (con los cuales Darwin
44
Ya que nos acordamos de los cirripedios, contaremos de una vez cual fue el nuevo “re-
galo” que le hicieron a los neurofisiólogos. En 1987, en estos organismos fueron descu-
biertos los PA de Ca2+: por el axón de cierta célula se propagaba un impulso, pero el pa-
272

trabajó mucho y en los cuales el cambio del potencial de la membrana de sus


fotoreceptores se transmite a una distancia de unos 3 cm). En estos animales
los fotoreceptores se despolarizan y liberan más mediador bajo el efecto de la
luz, pero esto no provoca ninguna reacción del organismo. Sin embargo,

Fig.60 Funcionamiento del receptor muscular. A — el filamento receptor se


encuentra en reposo, el potencial receptor no surge y no corren impulsos hacia el
cerebro. B — el filamento receptor está ligeramente estirado, en la “espiral” surge
un potencial receptor, empiezan a correr impulsos al sistema nervioso. C — el
filamento receptor está muy estirado, aumentan tanto la magnitud del potencial de
receptor como la frecuencia de los impulsos que van al cerebro.

pel principal en su generación lo jugaban los canales de calcio. Los biólogos, que ya
estaban acostumbrados a que los PA se originan por los canales de sodio, estaban muy
asombrados. Es interesante, que la célula resultó ser neurosecretora (es decir, la célula es
capaz de transmitir un PA y a la vez de liberar una hormona a la sangre). Tú sabrás que
la liberación de los mediadores y de otros secretos ocurre cuando a las células entran io-
nes de Ca2+; las células neurosecretoras, que liberan mucha hormona, requieren de mu-
chos canales de calcio. Al parecer en las células neurosecretoras de los cirripedios la
densidad de los canales de calcio resultó ser bastante alta, por lo que estos canales permi-
tieron la transmisión de potenciales de acción.
cuando le cae una sombra, el crustáceo se esconde en su cubierta. ¿De qué ma-
nera ocurre esto? Resulta que el neurotransmisor de los fotoreceptores de los
cirripedios es inhibidor, por lo que provoca la hiperpolarización de la siguiente
célula en la red neuronal (que tampoco genera impulsos). Esta también co-
mienza a liberar menos neurotransmisor, y por eso, cuando la luz se hace más
intensa no surge ninguna reacción. En cambio, cuando el fotoreceptor es cu-
bierto por una sombra, éste libera menos neurotransmisor y deja de inhibir a la
segunda célula. Entonces esta célula se despolariza y excita a su célula-blanco,
en la que surgen impulsos. La célula 2 en este circuito se conoce como célula-I,
de la palabra “inversora”, ya que su función principal es cambiar el signo del
fotoreceptor. Los cirripedios tienen unos ojos bastante primitivos, pero no ne-
cesitan de más: por su modo de vida sésil solo necesitan saber cuándo se acerca
el enemigo (cuando cae su sombra sobre ellos). En otros organismos, el siste-
ma de neuronas que se encuentran después del fotoreceptor está organizado de
manera mucho más compleja.
En los fotoreceptores el potencial se transmite de manera electrotónica e
influye en la cantidad de neurotransmisor que se libera. En los vertebrados y en
los cirripedios la segunda célula tampoco genera impulsos y solamente la ter-
cera neurona de la cadena es capaz de generar impulsos.
Pero en el receptor de distensión de nuestros músculos la situación es
opuesta. Este mecanoreceptor está constituido por la terminal de un filamento
nervioso que se enrosca en forma de espiral alrededor del filamento muscular
(Fig.60). Cuando el músculo se extiende, las vueltas de la espiral, que están
compuestas por un filamento no mielinizado, se separan unas de otras y en
ellas surge el potencial de receptor—una despolarización originada por la aper-
tura de canales de sodio sensibles a la deformación de la membrana. Este po-
tencial genera una corriente que corre a través del nodo de Ranvier de ese mis-
mo filamento nervioso y que genera un potencial de acción. Mientras más se
extienda el músculo mayor será la magnitud del potencial del receptor y mayor
será la frecuencia de los impulsos (Fig.60). En este mecanoreceptor tanto la
transformación del estímulo externo (la extensión del músculos) en señal eléc-
trica, como la transformación de ésta en impulsos es llevada a cabo por un mis-
mo fragmento del axón.
274

Claro, a nosotros nos interesaría describir cómo funcionan los receptores


de varios organismos, porque por su estructura y por su función pueden ser
muy exóticos. No obstante, cada relato de este tipo terminaría siempre en lo
mismo: en el relato de cómo la señal externa se transforma en el potencial de
receptor que controla la liberación de neurotransmisor o provoca la generación
del impulso.
Sin embargo, sí quisiéramos contarte acerca de otro tipo de receptores—los
electroreceptores. Estos receptores son interesantes, porque el estímulo al que
reaccionan ya de por sí es de naturaleza eléctrica. Entonces ¿qué es lo que hace
este tipo de receptores? ¿Transformará la señal eléctrica otra vez en eléctrica?
Los electroreceptores. Sobre cómo los tiburones utilizan la ley de Ohm y la
teoría de la probabilidad
En 1951, el científico inglés Hans Lissman estudiaba el comportamiento del
pez Gymnarchus (lucio del río Nilo). Este pez habita en el agua turbia de lagos
y pantanos de África, y por eso no siempre puede orientarse por medio de la
visión. Hans Lissman propuso que esos peces, al igual que los murciélagos,
utilizan el mecanismo de sonda acústica.
Esa propiedad asombrosa de los murciélagos de orientarse en la oscuridad
absoluta, sin chocar con objeto alguno, había sido descubierta ya desde mucho
antes, en 1793, es decir, prácticamente junto con el descubrimiento de Galvani.
El descubridor de esta habilidad fue Lazzaro Spallanzani45—un profesor de la
Universidad de Pavia (de la misma, donde trabajaba Volta). Sin embargo, la
prueba experimental de que los murciélagos emiten ultrasonidos y se orientan
por medio del eco fue obtenida solamente en 1938 en la Universidad de Har-
vard de Estados Unidos, cuando los físicos crearon el equipo necesario para
poder registrar el ultrasonido.
Mediante experimentos, Lissman revisó la hipótesis de que los Gymnar-
chus se orientan por medio del ultrasonido, pero tuvo que descartarla. Estu-
diando el comportamiento del Gymnarchus, Lissman determinó que este pez
posee un órgano eléctrico que empieza a generar corrientes muy débiles cuan-
45
Este espléndido naturalista descubrió no solo la “visión con los oídos”: también aportó
mucho para el descubrimiento de la regeneración, demostrando que una lagartija es
capaz de regenerar la cola perdida, y un tritón—sus extremidades.
do el pez se encuentra en agua turbia. Esta corriente es insuficiente para la
defensa o para el ataque. Por ello, Hans Lissman propuso que el Gymnarchus
debe tener unos órganos especiales para la detección de campos eléctricos—un
sistema electrosensorial.
Ésta era una hipótesis muy atrevida. Los científicos ya sabían que los in-
sectos son capaces de ver en el rango ultravioleta y que muchos animales pue-
den oír sonidos que nosotros no percibimos, Pero estas habilidades representa-
ban tan solo una expansión de los límites de percepción de los estímulos que
también podemos percibir los humanos. Pero Hans Lissman propuso la exis-
tencia de un tipo de receptores completamente nuevo.

La situación se complicaba con el hecho de que ya se conocía la respuesta


de los peces a corrientes de baja intensidad. Esta respuesta fue observada desde
1917 por George H. Parker y Anne P. van Heuzen en siluros (al parecer todos
los siluriformes poseen electroreceptores). Pero estos autores interpretaron sus
resultados de una manera completamente diferente. Ellos propusieron que
cuando una corriente de baja intensidad fluye a través del agua, en ésta cambia
la distribución de los iones, por lo que el sabor del agua cambia. Este punto de
vista parecía bastante razonable: para qué inventar órganos nuevos, si el resul-
tado del experimento puede ser explicado mediante los órganos del gusto que
ya se conocían. No obstante, estos investigadores no comprobaron de ninguna
manera su hipótesis y no hicieron un experimento control. Si ellos hubiesen
cortado los nervios que van de los órganos del gusto, de tal manera que el silu-
ro no pudiese percibir el sabor del agua, ellos encontrarían que las respuestas a
las corrientes quedaban inalteradas. De esta manera, limitándose a una mera
descripción, estos científicos pasaron de lado un gran descubrimiento.
Pero Hans Lissman diseñó y realizó múltiples experimentos y después de
decenas de años de trabajo pudo comprobar su hipótesis. De esta manera, a
mediados del siglo XX la ciencia aceptó la existencia de los electroreceptores.
Los electroreceptores comenzaron a ser estudiados y luego fueron descubiertos
en muchas especies de peces marinos y de agua dulce (en tiburones, en siluri-
formes, en las rayas y en otras especies) y en las lampreas. Posteriormente es-
tos receptores fueron descubiertos en los anfibios (los tienen las salamandras y
el ajolote mexicano) y en los mamíferos (los tienen los ornitorrincos).
276

¿Dónde se encuentran los electroreceptores y cuál es su estructura?

Al inicio de este capítulo nosotros mencionamos que tanto los peces como
los anfibios tienen mecanoreceptores en la línea lateral que va a lo largo del
cuerpo y parte de la cabeza del pez, y que le permiten al organismo percibir el
flujo del agua respecto al cuerpo. Los electroreceptores son otro tipo de recep-
tores de la línea lateral. Durante el desarrollo embrionario, todos los receptores
de la línea lateral se desarrollan del fragmento del sistema nervioso, del cual
también se desarrollan los receptores auditivos y vestibulares. Así que los re-
ceptores auditivos de los murciélagos y los electroreceptores de los peces son
“familiares” por su origen.
En diferentes especies de peces los electroreceptores se localizan en distin-
tas partes—se pueden encontrar en la cabeza, en las aletas, a lo largo del cuer-
po (a veces en varias líneas) y tienen diferente estructura. Muchas veces las cé-
lulas electroreceptoras forman órganos especiales. Acá, nosotros examinare-
mos uno de estos órganos que pueden ser encontrados en tiburones y en las ra-
yas—las ampollas de Lorenzini (este órgano fue descrito por el científico ita-
liano Stefano Lorenzini en 1678). La ampolla de Lorenzini es un canal que co-
rre por debajo de la piel. Uno de sus extremos se abre al medio externo (la
boca de este canal se denomina “poro”), mientras que en el otro extremo se en-
cuentra una cámara engrosada (la ampolla). En el interior del canal está relleno
de una substancia gelatinosa y las células electroreceptoras recubren en una
sola capa el fondo de la ampolla.
Es irónico que George H. Parker, el descubridor del efecto de las corrientes
de baja intensidad sobre los peces, también estudió las ampollas de Lorenzini,
pero les atribuyó una función completamente errónea. Por ejemplo, él observó
que al presionar la entrada del canal (el poro) cambiaba la respuesta del pez
analizado (por ejemplo, en el caso de un tiburón, cambiaba la frecuencia de las
contracciones cardíacas). Basándose en estos experimentos, George Parker
concluyó que las ampollas de Lorenzini son un manómetro que le permite al
pez percibir la profundidad en la que se encuentra, sobre todo porque la estruc-
tura del receptor es muy semejante a la de un manómetro. Pero también esta in-
terpretación de Parker resultó ser equivocada. Si colocamos a un tiburón en
una cámara presurizada y aumentamos la presión en ésta (imitando el aumento
de la profundidad de la sumersión) podremos observar que la ampolla de Lo-
renzini no reacciona al estímulo. Este resultado puede ser esperado incluso sin
la necesidad de realizar el experimento mencionado, ya que el agua ejerce
presión por igual en todas las direcciones, y no se obtendrá ningún efecto.46 Y
si ejercemos presión solamente sobre el poro, en el contenido gelatinoso del
canal surge una diferencia de potenciales, de manera similar a la diferencia de
potenciales que surge en un cristal piezoeléctrico (aunque los mecanismos físi-
cos de estos dos procesos son diferentes).
¿Cuál es la estructura de las ampollas de Lorenzini? Pues resulta que todas
las células del epitelio del canal están unidas fuertemente entre sí mediante
unas uniones estrechas, lo que le confiere una gran resistencia específica al epi-
telio (alrededor de 6 MOhm∙cm2). El canal recubierto de este buen aislamiento
se encuentra bajo la piel y puede tener una extensión de varias decenas de cen-
tímetros. Por el contrario, la sustancia gelatinosa del interior del canal tiene una
resistencia específica muy baja (alrededor de unos 30 Ω∙cm), debido a la alta
concentración de iones de K+, suministrados al interior del canal por los siste-
mas de transporte activo de las células (la concentración de potasio dentro del
canal es mucho mayor a su concentración en el agua de mar o en la sangre del
pez). De esta manera, el canal del órgano eléctrico puede ser visto como un
fragmento de cable con un aislamiento de alta resistencia y con un buen con-
ductor.
El “fondo” de la ampolla está tapizado por una capa del grosor de una célu-
la, compuesta de decenas de miles de células electroreceptoras fuertemente
unidas entre sí. Uno de los extremos de cada célula electroreceptora está orien-
tado al interior del canal, mientras que el otro extremo forma una sinapsis que
puede liberar un neurotransmisor excitador que actúa sobre la terminal adya-
cente de un nervio. Cada ampolla es rodeada por unos 10-20 nervios aferentes
que extienden muchas terminales hacia los receptores, de tal manera, que cada

46
Hay que mencionar que en muchos casos el olvido de la ley de Pascal (que los líqui-
dos y gases ejercen una presión igual en todas las direcciones) es una causa frecuente de
muchos errores. Por ejemplo, hemos escuchado que algunos estudiantes dicen que las
conchas de los moluscos que viven en grandes profundidades los protegen de las enor-
mes presiones características de sus hábitats, como si esa presión no se ejerciera sobre
los orificios en la concha necesarios para la alimentación y la respiración de los molus-
cos.
278

nervio recibe la señal de alrededor de 2,000 células receptoras (¡esta observa-


ción es importante!).
Veamos ahora qué ocurre con las células electroreceptoras bajo el efecto de
un campo eléctrico.47
Si introducimos cualquier célula en un campo eléctrico en una parte de su
membrana el signo del potencial de reposo (PR) coincidirá con el signo de la
tensión del campo, mientras que en otra parte el signo del potencial de la célula
será opuesto (Fig.61). Entonces, en una mitad de la célula el potencial de la
membrana aumentará (la membrana se hiperpolarizará), mientras que, en la
otra mitad, al revés, el potencial de la membrana disminuirá (es decir, la mem-
brana se despolarizará).

Fig.61 Efecto del campo eléctrico sobre las células.

Como vemos, cualquier célula es capaz de percibir la presencia de campos


eléctricos, es decir, puede funcionar como un electroreceptor. Y esto es com-
prensible, porque en este caso desaparece la necesidad de transformar el estí-
mulo externo en una señal natural para la célula—una señal eléctrica. De esta
manera, las células electroreceptoras funcionan de una manera muy sencilla: si
el signo del campo eléctrico externo es el adecuado, se despolariza la membra-

47
Nosotros examinaremos acá solamente los receptores de los peces óseos, que se
excitan por la corriente que fluye hacia el canal (en otras palabras, el “+” de la batería se
encuentra en el poro). El funcionamiento de los receptores de los tiburones y de las rayas
es mucho más complicado.
na sináptica de esas células y este cambio de potencial controla la liberación
del neurotransmisor.
Pero entonces surge una pregunta: ¿cuáles son las características particula-
res de las células electroreceptoras? ¿Puede cualquier neurona funcionar como
un electroreceptor? ¿Por qué tiene esa estructura la ampolla de Lorenzini?
En realidad, desde el punto de vista cualitativo, cualquier neurona puede
ser considerada como un electroreceptor, pero si hacemos un análisis cuantita-
tivo la situación cambia. Los campos eléctricos naturales son muy débiles y to-
dos los trucos que emplea la naturaleza en los órganos electrosensoriales están
orientados, en primera, a crear en la membrana sináptica la mayor diferencia de
potenciales posible, y, en segunda, a incrementar la sensibilidad del mecanis-
mo de liberación del mediador a los cambios en el potencial de la membrana.
Los órganos eléctricos de los tiburones y de las rayas tienen una altísima
(incluso se puede decir que fantástica) sensibilidad: ¡estos peces reaccionan a
tensiones del campo eléctrico del orden de 0.1 µV/cm! Así que podemos decir
que ellos resuelven el problema de la sensibilidad de una manera brillante.
¿Cómo es que se logran estos resultados?
Primero, la sensibilidad está vinculada en gran parte a la estructura de la
ampolla de Lorenzini. Si la tensión del campo es igual a 0.1 µV/cm y el largo
del canal de la ampolla es 10 cm, entonces la diferencia de potencial creada a
lo largo de todo el canal va a ser de 1 µV. Casi todo ese potencial recaerá sobre
el tapiz de las células electroreceptoras, porque su resistencia es mucho mayor
que la resistencia del medio que se encuentra dentro del canal. El tiburón se
aprovecha de manera directa de la Ley de Ohm:
corriente que fluye en el circuito tiene un valor constante, la diferencia de po-
tenciales generada será mayor mientras más alta sea la resistencia. En otras pa-
labras, mientras más largo sea el canal de la ampolla y mientras menor sea la
resistencia de su contenido, mayor será la diferencia de potenciales aplicada
sobre los electroreceptores.
Pero, aparte, la ley de Ohm es “utilizada” también por las mismas células
electroreceptoras, ya que su membrana también tiene valores diferentes de re-
sistencia eléctrica en diferentes zonas: la membrana sináptica (donde se libera
280

el neurotransmisor) tiene una mayor resistencia, y el fragmento localizado en


la parte opuesta de la célula tiene una resistencia baja, así que también en la
célula los potenciales se distribuyen de la manera más apropiada.
Y en cuanto a la sensibilidad de la membrana sináptica a los cambios del
potencial de membrana48, ésta puede ser explicada de diferentes maneras: por
ejemplo, los canales de calcio de la membrana pueden ser más sensibles al po-
tencial, o también puede serlo el mismo mecanismo de liberación del neuro-
transmisor. Un mecanismo muy interesante fue propuesto por Alexéy Byzov.
Su idea consistía en que en estas sinapsis la corriente generada por la membra-
na postsináptica entra a las células receptoras y provoca la liberación del neu-
rotransmisor. Como resultado surge una cascada con retroalimentación positi-
va: la liberación del neurotransmisor provoca un cambio de potencial que indu-
ce una corriente a través de la sinapsis, y a su vez ésta provoca el incremento
de la liberación de neurotransmisor. Hablando en general, este mecanismo
debe funcionar. Pero en este caso también la cuestión reside en las cantidades:
¿qué tan efectivo es este mecanismo para jugar un papel funcional? Más tarde,
Alexey Byzov y sus colaboradores pudieron obtener datos contundentes de que
este mecanismo juega un papel importante en el funcionamiento de los fotore-
ceptores.
La lucha contra el ruido
Entonces, gracias a diferentes “trucos” basados en la ley de Ohm, en la mem-
brana de los electroreceptores se crea una diferencia de potenciales del orden
de un 1 µV. Si la sensibilidad de la membrana presináptica es lo suficiente-
mente alta (y como vimos, esto es así), todo debería estar en orden. Pero noso-
tros no tuvimos en cuenta que el incremento de la sensibilidad de cualquier
equipo (ya sea de un equipo electrónico o de una célula electroreceptora) trae
consigo otro problema—la necesidad de eliminar el ruido. Nosotros considera-
mos la sensibilidad de un electroreceptor capaz de percibir 1 µV como fantásti-
ca y ahora explicaremos por qué. La razón de ello es que este valor es mucho
más pequeño que el nivel del ruido eléctrico.
48
Una alta sensibilidad al cambio del potencial de membrana también la tienen las zonas
sinápticas de otros receptores (por ejemplo, las células del órgano auditivo). Estas zonas
son mucho más sensibles al potencial que, por ejemplo, las sinapsis de una unión neuro-
muscular.
En cualquier conductor, las partículas cargadas (electrones o iones) participan
en el movimiento browniano, es decir, se mueven caóticamente en cualquier
dirección. A veces un número mayor de partículas cargadas se mueve en cierta
dirección, induciendo de esta manera corrientes eléctricas en ausencia de
cualquier fuente de alimentación. Para el caso de los metales, este problema
fue analizado en 1913 por Geertruida de Haas-Lorentz. Y en 1927 John Ber-
trand Johnson descubrió estas fluctuaciones eléctricas experimentalmente. En
ese mismo año Harry Nyquist propuso una teoría muy detallada de este fenó-
meno. La teoría y el experimento coincidían en que la intensidad del ruido (el
promedio del cuadrado de la tensión) depende en forma lineal del valor de la
resistencia y la temperatura del conductor. Este resultado era de esperarse:
mientras mayor es la resistencia del conductor, mayor es la diferencia de po-
tenciales que surge dentro de mismo, originados por corrientes aleatorias; y
mientras mayor es la temperatura del conductor mayor es la velocidad con la
que se mueven las partículas cargadas. Entonces, con el aumento de la resisten-
cia del conductor, mayores serán las fluctuaciones de potencial que surgen en
el conductor por el movimiento browniano de las cargas.
Regresemos ahora con los electroreceptores. Nosotros dijimos que para in-
crementar la sensibilidad de ese receptor es más conveniente que su membrana
tenga una alta resistencia, para que en ella sobrecaiga la mayor diferencia de
potenciales posible. Y efectivamente, la resistencia de la membrana que libera
el neurotransmisor es del orden de 1010 Ohmios. Pero todo tiene un costo: la
alta resistencia de esa membrana lleva al aumento de los ruidos que surgen en
ella. Las fluctuaciones térmicas del potencial en la membrana del electrorecep-
tor son de aproximadamente 30 µV, es decir, ¡30 veces más que el cambio mí-
nimo de potencial provocado por la aplicación de un campo eléctrico externo!
Es como si tú estuvieras en un cuarto en cual que se encuentran 30 personas,
cada una hablando de lo suyo y tú intentaras hablar con alguna de ellas. Si el
volumen de todos los sonidos producidos por las personas es 30 veces más
fuerte que el de tu voz, no alcanzarás a hablar con nadie.
¿Cómo es que el tiburón alcanza a “escuchar” una conversación similar en-
tre todo el ruido originado por las fluctuaciones térmicas? Recordemos el he-
cho de que cada terminal de un nervio del órgano lleva sobre sí las sinapsis de
unos 2000 electroreceptores. Bajo el efecto del ruido, una que otra sinapsis li-
282

bera cierta cantidad de neurotransmisor, por lo que en ausencia de campos


eléctricos externos el nervio siempre se encuentra “pulsando”. Cuando aparece
una señal eléctrica externa todos los electroreceptores liberan neurotransmisor.
Como resultado de esto se amplifica la señal externa.
Pero ¿cómo es esto posible? Porque 2000 células deben dar un ruido pro-
porcionalmente mayor. Si continuamos con nuestra analogía del cuarto lleno
de personas, ¿habría que suponer que 100 personas se harán oír mejor en una
multitud de 300 000 personas, que una sola persona rodeada de otras 30? A pe-
sar de que esto suena asombroso, corresponde a la realidad. Seguramente cada
uno de nosotros ha oído como en los estadios, entre ovaciones generales, se co-
mienzan a distinguir algunas palmadas rítmicas que van incrementando en in-
tensidad. O, tal vez, en los estadios, entre todo el ruido, alcances a oír perfecta-
mente el “¡Goya!” declamado incluso por un pequeño grupo de seguidores. En
estos casos una señal organizada y sincronizada se enfrenta al ruido, es decir,
una señal caótica. En otras palabras, la respuesta de los electroreceptores a un
estímulo externo es sincronizada, mientras que la activación por el ruido ocurre
de manera no sistemática y en casos aislados. Por eso, el aumento de la magni-
tud de la señal es directamente proporcional al número de electroreceptores
que se activan, mientras que la magnitud del ruido aumenta de una manera mu-
cho más lenta. Pero entonces surge otra cuestión: si el ruido es tan solo 30 ve-
ces más fuerte que la señal, ¿por qué son necesarios 2000 receptores? ¿No sería
suficiente con unos 100?
Cuando hablamos de problemas cuantitativos es necesario involucrar a la
matemática. En la matemática hay una rama especial—la teoría de las probabi-
lidades, que estudia los procesos casuales (que pueden ocurrir con cierta proba-
bilidad). Para los biólogos esta rama de la matemática es una de las más nece-
sarias. A continuación, nosotros aprovecharemos los resultados de esta rama,
que en nuestro caso suena así: el nivel del ruido es proporcional a , donde
es el número de células receptoras.

Ahora realicemos un cálculo sencillo. Supongamos que un campo eléctrico


externo provocó el cambio del potencial de membrana de todos los electrore-
ceptores por 1 µV. Entonces la señal útil sumada de todos los receptores va a
ser equivalente a 2000 unidades ( ). En cambio, la señal promedio de
ruido de una célula electroreceptora equivale a unos 30 µV, pero la señal total
del ruido va a ser , es decir, tan solo 1350 unidades. Como vemos,
gracias al efecto de sumación la señal útil sobrepasa por 1.5 veces la señal del
ruido. Con unas 100 células electroreceptoras no se hubiese podido obtener
este resultado (100 unidades de señal útil contra 300 de señal de ruido). Por
con una diferencia de 1.5 veces incluso el sistema nervioso de un tiburón puede
detectar la señal, por lo que no debe considerarse como milagro alguno.
Nosotros ya mencionamos que los bastones de la retina pueden producir
una respuesta con la excitación de tan solo una molécula de rodopsina. Pero
esta excitación puede surgir no solo bajo el efecto de la luz, sino también por el
efecto del ruido térmico. Entonces, deberíamos suponer, que, debido a la alta
sensibilidad de los bastones, en la retina todo el tiempo deberían estar surgien-
do señales de “falsa alarma”. Pero esto no es así, ya que en la retina existe un
sistema de eliminación de ruidos basado en el mismo principio mencionado.
Los bastones están interconectados entre sí por medio de sinapsis eléctricas,
con lo que se nivelan los cambios de su potencial, tal como ocurre en los elec-
troreceptores (solo que en el caso de los electroreceptores la señal se promedia
en los filamentos nerviosos, mientras que en la retina este proceso ocurre direc-
tamente en el sistema de los receptores). Recordemos también los contactos de
alta permeabilidad de las células con actividad espontánea del nodo sinusal del
corazón, que permiten mantener un ritmo cardíaco regular, eliminando las fluc-
tuaciones características de células individuales (el “ruido”). Como vemos, fre-
cuentemente la naturaleza emplea el promediado para eliminar el ruido en dife-
rentes situaciones.
¿Cómo es que diferentes organismos utilizan sus electroreceptores? Más
adelante hablaremos sobre cómo los peces los utilizan para orientarse en el
agua turbia. Pero los tiburones y las rayas los utilizan durante la búsqueda de
sus presas. Estos depredadores son capaces de descubrir un lenguado escondi-
do bajo una capa de arena tan solo por los campos eléctricos producidos por
sus músculos durante los movimientos respiratorios.
Esta capacidad de los tiburones fue demostrada mediante una serie de ex-
perimentos muy elegantes, realizados por Adrianus J. Kalmijn en 1971
(Fig.62). La presa puede quedarse quieta y se camuflajea con el fondo, pero no
284

puede detener su metabolismo, frenar el funcionamiento de su corazón, dejar


de respirar, y por eso siempre la desenmascaran los olores (el resultado del

Fig.62 Experimentos que demuestran el funcionamiento de los


electroreceptores de un tiburón. A — el tiburón pasa sobre el lenguado que está
escondido en la arena y lo ataca. B — el lenguado es recubierto con una cámara de
agar que tiene las mismas propiedades conductivas del agua de mar; a través de la
cámara perfunden agua que le permite respirar al lenguado, pero la salida de la
cámara se encuentra a cierta distancia del lenguado, por lo que el tiburón no lo
puede descubrir por su olor. El tiburón descubre al lenguado de manera correcta. C
— las condiciones son las mismas que en B, pero la cámara está cubierta por un
aislante; el tiburón no descubre al lenguado. D — en la arena se crea un campo
eléctrico artificial que imita el campo creado por la respiración del lenguado; el
tiburón ataca a los electrodos.

metabolismo), y en el agua la descubren los campos eléctricos que surgen du-


rante el funcionamiento del corazón y otros músculos. Las rayas pueden descu-
brir cangrejos por sus biopotenciales, y los siluros pueden detectar incluso los
campos eléctricos generados por los gusanos que se encuentran en el lodo. Los
científicos comenzaron a estudiar los biopotenciales de los músculos y del co-
razón solamente durante el siglo XX, para poder curar a las personas, mientras
que los tiburones utilizan esos campos eléctricos ya más de 200 millones de
años con fines completamente diferentes.
Capítulo 11

Maestro de todos los oficios

Nosotros ya te contamos sobre muchas de la funciones de la electricidad en los


organismos vivos. Pero no pienses que mencionamos todas las funciones. Mu-
chas de ellas no caben en este libro tan pequeño. En este capítulo nosotros te
contaremos acerca de otras funciones de la electricidad animal, a veces bastan-
te inesperadas, así como sobre el uso de los fenómenos eléctricos en la medici-
na.
Las armas y los localizadores eléctricos

Nosotros ya mencionamos más de una vez a los peces eléctricos. En el Capítu-


lo I, mencionamos que fueron utilizados para demostrar por primera vez la ca-
pacidad de los organismos vivos de generar electricidad. Utilizando los órga-
nos eléctricos de los peces, Faraday comprobó que la electricidad de los orga-
nismos vivos no se distingue en nada de la electricidad generada por los ele-
mentos galvánicos o de los generadores electrostáticos. ¿Cuál es la estructura
de los órganos eléctricos de los peces?
La parte principal de esos órganos la constituyen unas columnas de células
planas (Fig.63A) que se encuentran una sobre otra como en los pares cobre-
cinc de la columna voltaica, o como una columna de monedas. Hacia una de
las superficies de cada célula (en nuestro esquema—hacia su superficie infe-
rior) corre una terminal nerviosa. Cuando el órgano se encuentra en reposo, las
dos superficies de la célula tienen un potencial similar (el potencial de reposo
PR) y no fluye corriente alguna a través del órgano eléctrico. Pero en cuanto a
través de los filamentos nerviosos llega un impulso coordinado, incrementa
bruscamente la permeabilidad de la membrana postsináptica (la inferior, en
nuestro esquema), formando un “orificio eléctrico”, por lo que el potencial en
ella cae hasta cero. Esto provoca la generación de una corriente que fluye a tra-
vés de la célula (Fig.63B). Todas las células se conectan en serie (consecutiva-
mente), por lo que sus potenciales se suman, al igual que en elementos galváni-
286

cos conectados en serie. Esta explicación del funcionamiento de los órganos


eléctricos fue presentada por el creador de la teoría de los biopotenciales de la
membrana Julius Bernstein en su libro “Electrobiología”. En general, esta
explicación resultó ser correcta, y para algunos peces eléctricos (por ejemplo,
para las rayas)—también resultó ser bastante exacta. Pero, por ejemplo, para la
anguila eléctrica, la parte de la membrana donde se encuentra la sinapsis resul-
tó ser excitable, por lo que cuando llega el impulso nervioso la membrana no
simplemente reduce su potencial hasta cero, sino que cambia de polaridad, pro-
duciendo en cada célula un cambio de potencial mayor (Fig.63C). Pero en las
rayas, las células de los órganos eléctricos no son capaces de generar impulsos.

Fig.63 Funcionamiento de los órganos eléctricos de los peces. A — estructura


esquemática general del órgano eléctrico. B — funcionamiento del órgano eléctrico
de la raya (arriba — la célula se encuentra en reposo, abajo — la célula al momento
de excitarse; a la derecha — gráficas de la corriente generada por la célula). C —
funcionamiento de las células del órgano eléctrico de la anguila eléctrica.

Tú ya sabes que el potencial de reposo de una célula animal es de alrededor de


60 mV y que incluso durante la excitación el PA es de alrededor de 120 mV.
Pero la anguila eléctrica puede crear potenciales entre 800 y 900 V y el siluro
eléctrico puede generar descargas entre 200 y 335 V. Como ya dijimos, esto se
debe a la conexión en serie de muchas células. La anguila eléctrica tiene conec-
tadas en serie más de 6000 células.
Pero la función de los órganos eléctricos no es crear la mayor fuerza elec-
tromotriz posible. Uno de los principales problemas es que parte de la electrici-
dad generada se pierde en la resistencia interna del generador. Y el órgano
eléctrico debe generar la mayor diferencia de potenciales posible en el medio
externo. Queda claro que mientras mayor sea la corriente generada por el ór-
gano eléctrico, mayor será la caída de potencial en el medio externo. Analice-
mos con más detalle este problema.

La intensidad de la corriente generada por los órganos eléctricos, y que flu-


ye a través del agua, es igual a . Si contamos con muchos ele-
mentos galvánicos, estos pueden ser conectados en serie, paralelamente, o de
una forma mixta, componiendo “columnas” de elementos conectados en serie y
siendo estas columnas conectadas en paralelo. Supongamos que disponemos de
un número limitado de elementos: . Supongamos que conocemos la resisten-
cia del medio externo, que es igual a , mientras que la resistencia interna del
elemento es y su fuerza electromotriz es . ¿De qué manera hay que co-
nectar los elementos para obtener la máxima intensidad de corriente en el cir-
cuito y la mayor caída de potencial en la resistencia externa? Si conectamos en
una columna . La
fuerza electromotriz total será igual a elementos conectados en se-
rie). La resistencia interna de una sola columna es igual a
interna total de todo el sistema es
. Entonces para la corriente obtenemos la siguiente expresión

, es de-

cir, cuando la resistencia interna del sistema es igual a la resistencia externa.


Veamos ahora, cómo las leyes de la física influyeron en la evolución de los
órganos eléctricos. Para los peces de agua dulce la resistencia de su entorno (
) es bastante alta y para alcanzar un efecto máximo es necesario incrementar
288

, es decir el número de elementos conectados en serie. Por esta razón, en el


órgano eléctrico de la anguila eléctrica, que habita en los pantanos de América
del Sur, las columnas contienen unos 6,000 elementos conectados en serie,
mientras que el número de columnas es pequeño. Una situación completamente
diferente ocurre con la raya eléctrica o torpedo, que habita en el mar Mediterrá-
neo, el agua del cual tiene una resistencia relativamente pequeña. En el órgano
del torpedo, las células están conectadas de una manera completamente dife-
rente: tan solo unos 400 elementos están conectados en serie, pero el número
de columnas conectadas en paralelo es muy grande (más de 500 columnas).
Como resultado, el órgano eléctrico de la raya crea una corriente del orden de
50 A, de tal manera que la caída de potencial, incluso en el agua salada resulta
muy notable y alcanza los 50 V. Por lo tanto, la evolución de los órganos eléc-
tricos de los peces corresponde a lo que esperaría un físico.
Como vemos, los peces eléctricos de agua salada necesitan disminuir al
máximo la resistencia interna de su generador y para ello conectan en paralelo
un número tan grande de columnas. Pero hay otra manera reducir esa resisten-
cia—reduciendo la resistencia de la membrana de cada una de las células. Y la
evolución también emplea este “truco”. La resistencia de una de las caras de la
membrana (en la que se encuentran las sinapsis) disminuye durante la excita-
ción, porque se abren los numerosos canales iónicos que se encuentran en ella.
La resistencia de la membrana del lado opuesto también es pequeña debido a
su gran superficie: en este lado la membrana es “rugosa”, que es una manera
muy común en la que las células amplían su superficie.
Las leyes de la física y las condiciones del medio determinan el rumbo de
la evolución de los órganos eléctricos, que se desarrollan de una manera simi-
lar en peces de diferentes especies aunque se originen de tejidos diferentes. Por
ejemplo, en las rayas, las células de los órganos eléctricos surgieron de células
musculares que perdieron su excitabilidad. Se puede decir, que de esas células
únicamente quedaron las zonas sinápticas. En estudios de desarrollo ya se ha
determinado cómo se va atrofiando paulatinamente el resto de la célula muscu-
lar. El neurotransmisor que actúa en el órgano eléctrico es la acetilcolina, que
también excita a las células musculares de los vertebrados, por eso la descarga
del órgano puede ser producida no sólo mediante la estimulación del nervio
que lo rodea, sino también mediante la inyección de acetilcolina en la arteria
que se dirige hacia éste. El órgano eléctrico de la anguila eléctrica también se
desarrolla del tejido muscular, pero en otros peces el órgano se forma de las cé-
lulas nerviosas, mientras que el órgano eléctrico del siluro eléctrico africano se
desarrolla de las células de las glándulas epiteliales. Esto no debe asombrarte,
ya que sabemos que no solo los nervios y los músculos tienen la capacidad de
generar respuestas eléctricas.
Los peces como la raya y la anguila eléctricas gastan en cada descarga una
cantidad notable de energía (la potencia varía entre 1-6 kW con una duración
de los impulsos de 2-3 ms). Por ello, estos peces utilizan sus órganos eléctricos
con poca frecuencia. La anguila eléctrica, además, tiene unos órganos eléctri-
cos adicionales de mucha menor potencia que le ayudan al pez a orientarse y a
buscar a sus presas. Los órganos eléctricos de los peces que los utilizan solo
para orientarse con frecuencia están basados en otro principio: producen des-
cargas constantes. Por ejemplo, los órganos eléctricos del pez Gymnarchus (en
el que Lissman descubrió los electroreceptores) producen descargas con una
frecuencia de 300 Hz.
Un problema muy importante con el que se topan todos los peces eléctricos
es el problema de la sincronización, es decir—cómo hacer que todas las células
del órgano eléctrico se exciten de manera simultánea. Este problema se resuel-
ve sobre todo con la ayuda de las sinapsis eléctricas. Las neuronas de diferen-
tes niveles que coordinan el funcionamiento de órgano eléctrico están conecta-
das entre sí por medio de sinapsis eléctricas, y por eso su descarga ocurre casi
de manera simultánea. Los peces eléctricos tienen arcos reflejo que provocan la
excitación del órgano eléctrico. En esos arcos ocurre la transmisión de la señal
entre tres tipos diferentes de neuronas y en todos los casos la señal es transmi-
tida a través de sinapsis eléctricas. Sin embargo, no es suficiente con que las
neuronas que coordinan la estimulación del órgano eléctrico se exciten al mis-
mo tiempo, también tienen que excitarse simultáneamente las células del ór-
gano eléctrico mismo, los cientos y miles de células que se localizan en las co-
lumnas y aquellas que se encuentran a diferentes distancias de las neuronas.
Esto se logra a través de variaciones en la velocidad de transmisión de la señal
hacia las células: la señal hacia las células más alejadas es transmitida a una
velocidad mayor.
290

¿Cómo atrapar a un pez en el agua turbia? Y un poco acerca de las


conversaciones eléctricas
Para un organismo que posee electroreceptores no es difícil descubrir a un pez
en el agua turbia. Para ello únicamente necesita detectar los campos eléctricos
producidos por el funcionamiento del corazón o los músculos respiratorios.
Precisamente de esta manera descubren a sus presas los tiburones y las rayas.
Pero los peces que tienen órganos eléctricos son capaces de solucionar un pro-
blema más complejo: ellos pueden “percibir” en el agua turbia objetos que por
sí solos no generan campos eléctricos. ¿Cómo es que lo logran?
Al principio se pensaba que esos peces tenían radares eléctricos similares a
los radares utilizados para monitorear a los aviones. Se suponía que estos peces
generan con sus órganos eléctricos una señal que es reflejada por los objetos
cercanos y detectada por los electroreceptores. Pero un primer análisis permite
descartar esta posibilidad. El pez detecta objetos que se encuentran a una dis-
tancia de decenas de centímetros y las ondas electromagnéticas recorren esta
distancia demasiado rápido. Y los organismos no son capaces de registrar miles
de millonésimas fracciones de un segundo. ¿Cómo es que los peces encuentran
objetos con la ayuda de los órganos eléctricos?
Hans Lissman estudió esa capacidad de los peces realizando los siguientes
experimentos. Él desarrollaba en los peces un reflejo condicional. Dentro de la
pecera, Lissman colocaba dos tubos de igual tamaño y con una resistencia es-
pecífica igual a la del agua de la pecera. Dentro de los tubos, él colocaba dife-
rentes sustancias con diversas resistencias específicas (metales, electrolitos, pa-
rafina y otras). El pez era entrenado para que eligiera el cilindro con la resis-
tencia específica más baja. Si el pez elegía el cilindro correcto, recibía alimen-
to, pero si elegía el incorrecto recibía un golpe con una varilla. Después de
cierto tiempo de entrenamiento el pez ya era capaz de escoger el cilindro co-
rrecto, sin importar que los cilindros fueran colocados en otro lugar. Pero si en
los cilindros se encontraban sustancias que se distinguían por su composición
química, densidad u otra característica, pero tenían una resistencia específica
similar, el pez no era capaz de distinguir los cilindros. Entonces, para detectar
objetos, los peces pueden utilizar la diferencia entre las resistencias específicas
de los objetos y el agua que los rodea.
Nosotros ya mencionamos que el Gymnarchus genera impulsos eléctricos
constantemente, de tal manera que alrededor de su cuerpo se generan corrientes
eléctricas. Si representamos la densidad de la corriente mediante líneas, las co-
rrientes alrededor del pez se verán tal como se indica en la Fig.64. Si en el agua
se encuentra un objeto que conduce electricidad, la imagen de estas líneas se
verá como en la Fig. 64B. Pero si el objeto es de un material aislante, las co-
rrientes tendrán otra apariencia (Fig.64A). Y estos cambios en el campo eléctri-
co provocan un cambio en la señal percibida por los electroreceptores del pez.
El sistema nervioso del pez eléctrico contiene un sistema de detección muy
complejo. Su cerebro compara las señales de muchos receptores. Esto permite
determinar las dimensiones, la forma y la velocidad del objeto que es “monito-
reado”. Podemos decir, que los peces eléctricos poseen una verdadera “visión
eléctrica”.

Fig.64 Electrolocalización en los peces. A — configuración del campo eléctrico


cuando el pez se acerca a un material dieléctrico. B — configuración del campo
eléctrico cuando el pez se acerca a un material conductivo.

En el Capítulo 4 nosotros relatamos cómo es que funciona el “telégrafo vivo”


durante la transmisión de las señales eléctricas dentro del organismo. Los peces
eléctricos utilizan señales eléctricas también para comunicarse entre ellos. Por
ejemplo, de esta manera le dan a saber a otros ejemplares de su especie que el
territorio se encuentra ocupado (al igual como lo hacen las aves, pero a través
de su canto), o que el pez encontró alimento (las aves igualmente tienen seña-
292

les auditivas especiales para comunicar esto). Al parecer las señales eléctricas
también les facilitan a los peces encontrar a ejemplares del sexo opuesto. To-
das estas señales pueden ser captadas incluso a una distancia de alrededor de
10 metros.
¿Qué son un ECG, un EMG, un EEG?
Un ECG es un electrocardiograma, es decir, un registro de las señales eléctri-
cas del corazón. El surgimiento de una diferencia de potenciales durante la ex-
citación del corazón fue demostrado en 1856, durante la época de Dubois Rey-
mond. El experimento fue realizado por Rudolf Albert von Kölliker y Heinrich
Müller siguiendo el ejemplo de los experimentos de Galvani: sobre un corazón
palpitante aislado se colocaba el nervio de una preparación neuromuscular y
este “voltímetro vivo” respondía con una contracción cada vez que el corazón
se contraía.
Con la aparición de equipos de medición de alta sensibilidad fue posible
registrar las señales eléctricas del corazón en funcionamiento a través de la
piel, sin la necesidad de colocar los electrodos directamente sobre el corazón.
En 1887, se pudo por primera vez registrar un electrocardiograma de esta ma-
nera. Fuel el científico inglés Augustus Desiderius Waller quién logró hacerlo,
con ayuda de un electrómetro capilar. La parte principal de este equipo es un
capilar delgado que contiene mercurio en contacto con ácido sulfúrico. Cuando
por este capilar pasa una corriente, la tensión superficial en la frontera entre los
líquidos cambia y el menisco se desplaza. El uso diario de este equipo era muy
incómodo, por lo que la electrocardiografía se volvió más común solo después
de cierto tiempo, en 1903, cuando apareció otro equipo más sofisticado—el
galvanómetro de cuerda de Einthoven. El funcionamiento de este equipo se
basa en el movimiento de un conductor bajo corriente dentro de un campo
magnético. El papel del conductor lo juega un hilo de cuarzo de algunos micró-
metros de grosor, recubierto de plata. Este hilo era bien tensado y se introducía
en el campo magnético. Cuando por el hilo se pasaba una corriente, éste se tor-
cía ligeramente. Estos cambios se observaban mediante un microscopio. Este
equipo tenía una inercia muy baja, por lo que permitía registrar procesos eléc-
tricos bastante rápidos. Después de la aparición de este equipo, en varios labo-
ratorios empezaron a estudiar las diferencias entre los ECG de una persona
sana y personas con diferentes padecimientos del corazón. Gracias a estos tra-
bajos, Willem Einthoven recibió en 1924 el Premio Nobel, y al científico so-
viético Alexander Samoylov, que hizo mucho por el desarrollo de la
electrocardiografía, le fue entregado el Premio Lenin (uno de los principales
galardones en la Unión Soviética) en 1930. Como resultado del desarrollo de
los equipos (los amplificadores electrónicos y los registradores), los electrocar-
diógrafos comenzaron a ser utilizados en cada hospital de importancia.
¿Cuál es la naturaleza de un ECG? Cuando un nervio o un músculo se ex-
citan, en algunas de sus partes la corriente entra al filamento, mientras que en
otras partes sale del éste. Pero en cualquier caso la corriente fluye por el medio
extracelular, creando en ese medio una diferencia de potenciales. Esta caracte-
rística permite registrar la excitación del nervio con la ayuda de electrodos ex-
tracelulares, sin la necesidad de introducirlos en la célula. El corazón es un
músculo bastante potente. En él se excitan de manera simultánea muchos fila-
mentos, por lo que en el medio que rodea al corazón fluyen corrientes de una
intensidad bastante alta, que llegan a generar, incluso en la superficie del cuer-
po, una diferencia de potenciales del orden de 1 mV. La forma común de un
ECG se muestra en la Fig.65. El pico P corresponde a la excitación de las aurí-
culas y el pico más grande R corresponde a la excitación simultánea de los
ventrículos.
Para saber más sobre el estado del cora-
zón utilizando un ECG, los médicos rea-
lizan registros en varios puntos del cuer-
po. Para interpretar estos resultados se
necesita contar con mucha experiencia,
aunque con la ayuda de las computado-
ras este proceso se ha podido automati-
zar (ofreciéndole al médico uno o varios diagnósticos). Existen varias formas
de analizar los ECGs. Uno de los métodos más interesantes es el siguiente: re-
gistrando los potenciales en varios puntos del cuerpo se puede calcular cómo se
mueve la ola de excitación por el corazón y qué partes del corazón se han vuel-
to inexcitables (cuando, por ejemplo, están afectadas por un infarto). Estos cál-
culos son complicados, pero son posibles de realizar gracias a las computado-
ras. Este método de análisis de los ECG fue desarrollado por el científico Leo-
nid Titomir, del Instituto de Problemas de Transmisión de la Información, en
294

Rusia. En vez de muchas curvas, que son bastante difíciles de interpretar, la


computadora en este caso muestra un corazón y cómo a su largo se propaga la
ola de excitación. De esta manera se puede ver en qué parte del corazón la ex-
citación se desplaza de una manera más lenta, qué partes del corazón no se ex-
citan, etc.
Los potenciales del corazón han sido utilizados en la medicina no solo para
el diagnóstico, sino también para el control de equipo médico. Imaginemos que
un médico necesita tomar unas radiografías del corazón durante diferentes fa-
ses de su ciclo de contracción, por ejemplo, cuando el corazón está contraído al
máximo, o, por el contrario, cuando está relajado al máximo. ¿Cómo es que
podemos detectar el momento preciso de la máxima contracción? Habría que
intentar realizar varias tomas, con la esperanza de que una de las tomas coinci-
diera con el momento de la máxima contracción. Para resolver este problema,
los científicos soviéticos Víctor Gurfinkel, Víctor Malkin y Mikhail Tsetlin de-
cidieron crear un mecanismo que activara la toma de la radiografía en función
de un pico del ECG. Para esto, ellos construyeron un equipo electrónico senci-
llo, que activaba la toma de la radiografía después de cierto tiempo de haberse
registrado el pico del ECG. Esta solución ingeniosa es interesante, ya que en
ella los potenciales naturales del organismo permiten controlar el funciona-
miento de equipos técnicos.
Los músculos esqueléticos también generan potenciales que pueden ser re-
gistrados desde la superficie de la piel. Solo que para registrar estos potenciales
es necesario un equipo mucho más sofisticado que un equipo para registrar
ECGs. Los filamentos musculares por lo general no se contraen de manera si-
multánea, por lo que sus impulsos eléctricos se superponen, se compensan par-
cialmente, y resultan en diferencias de potenciales menores a las que se obtie-
nen en el caso del corazón. El potencial de acción de un músculo fue registrado
por primera vez en 1882 por el científico ruso Nikolay Vvedenskiy, con la ayu-
da de… un aparato telefónico. En 1907 el científico alemán Hans Edmund Pi-
per utilizó un galvanómetro de cuerda para registrarlo. Pero éste resultó ser un
método complicado. Solo luego de que en 1923 aparecieran el oscilógrafo ca-
tódico y los equipos electrónicos comenzó a desarrollarse la electromiografía
—la ciencia que estudia los procesos eléctricos en los músculos. En la actuali-
dad, los resultados de la electromiografía se aplican ampliamente en la medici-
na, en el deporte y en el biocontrol de equipos técnicos. Una de las apli-
caciones más importantes de biocontrol con la ayuda de la electromiografía es
la fabricación de prótesis para las personas que perdieron una mano. Este tipo
de prótesis por primera vez fueron creadas en Rusia.
Y ¿qué significa EEG? Esta abreviatura se descifra como electroencefalo-
grama, es decir, la actividad eléctrica del cerebro, las oscilaciones del potencial
creadas por el funcionamiento de las neuronas y que pueden ser registradas di-
rectamente desde la superficie de la cabeza. Las neuronas, al igual que las célu-
las de los músculos, no funcionan todas ni al mismo tiempo ni de la misma ma-
nera: unas crean un potencial positivo, mientras que el potencial creado por
otras es negativo. La compensación mutua de los potenciales en este caso es
mucho más notable que en el caso del electromiograma. Como resultado, la
magnitud del EEG es aproximadamente 100 veces menor que la del ECG, por
lo que requiere de equipos más sensibles para poder ser detectada. Por primera
vez un electroencefalograma fue registrado por el científico soviético Vladimir
Pravdich-Nemskiy en perros, utilizando para ello un galvanómetro de cuerda.
Para poder registrar las pequeñas corrientes del cerebro, el científico inyectaba
curare a los animales y de esta manera eliminaba las corrientes generadas por
los músculos que, como ya vimos, son de una magnitud mucho más grande a
las registradas en el cerebro. En 1924, el psiquiatra alemán Hans Berguer co-
menzó a estudiar los electroencefalogramas humanos en la Universidad de Jena
(Friedrich-Schiller-Universität Jena). Él describió las oscilaciones periódicas
de los potenciales del cerebro, que tenían una frecuencia de unos 10 Hz, y que
hoy se conocen con ritmo alfa. Él también por primera vez registró el encefalo-
grama de una persona durante un ataque de epilepsia y llegó a la conclusión de
Galvani tenía razón al suponer que esta enfermedad se debía al surgimiento de
una zona en la que la intensidad de las corrientes fluyentes era mayor (en esta
zona las células se excitan a altas frecuencias durante tiempos prolongados).
Ya que se trataba de corrientes muy débiles registradas por un médico poco co-
nocido, estos resultados pasaron desapercibidos por mucho tiempo. Incluso, el
mismo Hans Berguer los publicó solamente transcurridos 5 años después de su
descubrimiento. Y solo después de que estos datos fueron reproducidos por los
los famosos científicos ingleses Edgar Douglas Adrian y Bryan Harold Cabot
Matthews, pudieron ser considerados como “aprobados por la opinión acadé-
296

mica”, según la expresión del científico inglés William Grey Walter que
estudiaba las aplicaciones clínicas de los EEG en el laboratorio de Frederick
Golla. En este laboratorio fue donde se desarrollaron los métodos que permi-
ten, basándose en un EEG, determinar la localización de tumores o derrames
cerebrales, de la misma manera como se utiliza el ECG para determinar la lo-
calización de un infarto en el corazón. Posteriormente, aparte del ritmo alfa,
fueron descubierto otros ritmos en el cerebro, por ejemplo, los relacionados a
los diferentes tipos de sueño. Existen muchos proyectos y prototipos de bio-
control con la ayuda de los EEG. Por ejemplo, si se registra el EEG de un con-
ductor se puede determinar el momento cuando éste comienza a perder la con-
centración, para despertarlo.
Aparte del EEG—que son las oscilaciones de potencial en el cerebro en au-
sencia de estímulos especiales, existe también otro tipo de potenciales—los po-
tenciales inducidos. Estos corresponden a las respuestas eléctricas a estímulos
externos como la iluminación, sonidos, etc. El número de neuronas que respon-
de al mismo tiempo a un destello de luz es bastante grande, y por ello los po-
tenciales inducidos tienen una magnitud notablemente mayor que en el caso de
un encefalograma. No es de asombrarse que estos potenciales fueran registra-
dos mucho antes que los electroencefalogramas (en 1875 los registró el cientí-
fico inglés Richard Caton). Con la ayuda de los potenciales inducidos se pue-
den resolver problemas científicos muy interesantes. Por ejemplo, cuando per-
cibimos un destello de luz, los potenciales inducidos surgen antes que nada en
la parte occipital (la nuca). Este resultado nos puede indicar, que precisamente
ésta es la zona responsable de las respuestas a la luz. Si en vez de luz, estimula-
mos con una pequeña descarga eléctrica nuestra piel, los potenciales inducido
surgen en la parte parietal del cerebro. Sin, embargo, la localización exacta de
estos potenciales es diferente, dependiendo del lugar donde produzcamos la
descarga—en el pie, o en la mano. Es posible hacer un mapa de estas respues-
tas, que nos muestre una proyección de las diferentes partes de nuestra piel so-
bre la zona parietal del cerebro humano (Fig.66). Resulta interesante que el
área correspondiente a cada una de nuestras partes del cuerpo no coincide del
todo con el área del cerebro que se activa. Por ejemplo, la proyección de la
planta de la mano que existe en el cerebro resulta desproporcionadamente
grande. Aunque este hecho no debe asombrar mucho: el cerebro necesita infor-
mación mucho más detallada sobre nuestras manos que, por ejemplo, sobre
nuestra espalda.

Fig.66 “Mapa del cuerpo” en la corteza somatosensorial de los hemisferios del


cerebro, obtenido mediante el método de los potenciales inducidos.
La granjita eléctrica de los infusorios
“Es un poco ansioso”, se dijo, “ser un animal muy pequeño completamente
rodeado de agua.”
А.А. Milne, “Winny-the-Pooh”
En este libro nosotros mencionamos fenómenos eléctricos en las células de los
organismos más diversos: desde las ranas y hasta las personas, desde los cirri-
pedios y hasta los calamares. Pero todos estos organismos son organismos
multicelulares. Veamos qué ocurre con los organismos unicelulares o proto-
zoos. Estos son organismos que se distinguen por estar compuestos por tan
solo una célula. Es decir, por una parte, siempre se presentan como una sola
célula, pero por otra parte esta única célula tiene un comportamiento complejo
característico de un organismo entero. Estas características dan lugar a las inte-
298

resantes propiedades de los protozoos. En los organismos multicelulares las


células que los componen tienen funciones diferentes. En cambio, en los proto-
zoos todas las funciones se encuentran reunidas en una sola célula, y todas es-
tas funciones pueden ser realizadas por esa única célula y pueden estar vincula-
das entre sí.
Por ejemplo, veamos cómo se comporta el protozoo paramecio, que habita
en las aguas dulces, y qué papel juegan en su vida los procesos eléctricos.
Una gran parte de la célula del paramecio se encuentra cubierta por una es-
pecie de caparazón consistente de piezas hexagonales. En este caparazón se en-
cuentran: el orificio oral, el orificio para la excreción de los restos de alimento
no digeridos, y otros. Además, en la superficie del cuerpo del paramecio se en-
cuentran cerca de 15 mil cilios, unas estructuras que le permiten a este organis-
mo moverse en el agua. Por último, en la superficie se encuentran los organe-
los de defensa, los tricocistos, que, al ser estimulados, lanzan una especie de fi-
lamento largo que libera una sustancia venenosa.
Algunos de los cilios que se encuentran cerca del orificio oral del parame-
cio no participan en la locomoción de este organismo unicelular, sino que sir-
ven para dirigir el alimento hacia el orificio oral. Este orificio siempre se en-
cuentra abierto y el paramecio todo el tiempo se alimenta de bacterias que na-
dan a su alrededor. En el caso de algunos protozoos depredadores el orificio
oral se abre para dejar entrar el alimento. El alimento engullido pasa a través
de la faringe y forma luego una vesícula recubierta de membrana que se separa
de la faringe y comienza un recorrido muy complejo en el interior del “cuerpo”
del protozoo. Esa vesícula se denomina vacuola digestiva. En el interior de la
célula puede haber muchas vacuolas digestivas al mismo tiempo: algunas ape-
nas se están separando de la faringe, otras ya recorrieron parte de la ruta en el
interior de la célula, mientras que unas más se acercan al orificio de descarga
de los residuos de alimentos que no fueron digeridos. Desde nuestro punto de
vista este sistema de digestión es bastante inusual: en vez de que el alimento se
mueva por el intestino, como ocurre en todas las personas, el “intestino” con el
alimento es el que realiza el recorrido dentro del cuerpo. Aproximadamente
cada dos minutos en el interior del paramecio se forma una nueva vacuola di-
gestiva (Fig.67).
Fig.67 La granjita eléctrica del paramecio. Se muestra la distribución de los
canales y las bombas iónicas en diferentes estructuras de este organismo unicelular.

El paramecio tiene un organelo especial que le permite regular el contenido de


agua en el interior de su “cuerpo”. Este organelo se denomina vacuola contrác-
til. Cuando hablamos de las bombas de iones mencionamos que todos los orga-
nismos de agua dulce se enfrentan a un mismo problema: debido al fenómeno
de la ósmosis, el agua entra al interior de los organismos, por lo que es necesa-
rio eliminar su exceso de manera constante. Los paramecios también se enfren-
tan a este problema. Aunque una parte de su cuerpo está cubierta del caparazón
que, al parecer, es impermeable al agua, el agua siempre entra junto con la co-
mida a través del orificio oral que se encuentra constantemente abierto. La fun-
ción de la vacuola contráctil es precisamente eliminar el agua sobrante, por lo
que la mayoría de los protozoos cuentan con este organelo.
300

La vacuola del paramecio está compuesta de un reservorio central rodeado


de cinco y hasta siete canales formados por una membrana, y cuenta con un ca-
nal que se abre al exterior. El agua que debe ser expulsada se junta en los cana-
les, que en un momento determinado se contraen, alargando la vacuola con-
tráctil (al igual que ocurre en el pericardio que se dilata para llenar de sangre
los ventrículos). Luego de esto la vacuola se contrae y expulsa el agua hacia el
exterior de la célula. La vacuola se contrae cada 20 segundos. En 45 minutos la
vacuola es capaz de expulsar un volumen de agua equivalente al volumen del
paramecio.
De esta manera, la vacuola contráctil realiza un trabajo enorme; gran parte
de la energía que produce el paramecio es destinada a contrarrestar el efecto de
la ósmosis.
Veamos también algunos de los fenómenos eléctricos que tienen lugar en
el paramecio y su relación con la fisiología y el comportamiento de este orga-
nismo. El paramecio tiene un potencial de reposo (PR), que, al igual que en
otras células, depende de los iones de potasio. Un aspecto interesante del po-
tencial de reposo del paramecio es su inestabilidad, que fue descubierta me-
diante registros electrofisiológicos. El potencial de membrana aumenta drásti-
camente cada 20 segundos y oscila notablemente durante el intervalo entre es-
tos aumentos. Estas oscilaciones están vinculadas a diferentes aspectos del me-
tabolismo. Cuando la vacuola contráctil expulsa el agua, expandiendo el canal
de salida, el medio intracelular se expone al medio externo. La resistencia de la
membrana de la vacuola es menor a la resistencia de otras partes del parame-
cio, y también lo es su potencial, por eso a través de la membrana vacuolar
ocurre un “corto circuito” que reduce notablemente el PR de la célula. Lo mis-
mo ocurre cuando la vacuola digestiva se fusiona con la membrana externa.
Algo similar ocurre en muchos protozoos cuando se abre su orificio oral. Apar-
te, los protozoos cuentan con muchos “organelos sensoriales” que también son
capaces de provocar cambios en el potencial de la membrana.
En el protoplasma de los protozoos hay mucho más potasio y menos sodio
que en el agua de su entorno. Esto significa que el paramecio cuenta con una
bomba de sodio-potasio. También fue descubierto que en el agua expulsada
por la vacuola contráctil la concentración de sodio es mayor a la concentración
de este catión en el citoplasma. Esta observación indica que al menos una parte
de las bombas de sodio-potasio se encuentra en la membrana de la vacuola
contráctil. Entonces, la vacuola contráctil regula no solo el contenido de agua
en el paramecio, sino también el contenido de sodio, cumpliendo una función
semejante a la función de los riñones de los organismos más complejos.
Veamos cómo es que entra el Na+ a la célula. Primero, el sodio es ingerido
junto con el alimento y es dirigido hacia las vacuolas digestivas. En estas va-
cuolas se acumulan también las enzimas de digestión que procesan el alimento.
Durante el trayecto de la vacuola en el interior de la célula su contenido se aci-
difica, de la misma manera que en el estómago humano. Pero luego el conteni-
do se vuelve básico de tal manera que este “estómago errante” se convierte en
“intestino errante”. En el caso de los humanos, los alimentos se someten a dife-
rentes procesos en diferentes partes del tracto digestivo, mientras que en el pa-
ramecio el alimento es sometido a diferentes procesos en el mismo comparti-
mento, en la vacuola, pero en distintos momentos del tiempo. A pesar de estas
diferencias, el resultado es el mismo: el alimento es digerido para obtener ami-
noácidos y otras moléculas pequeñas. En la membrana de las vacuolas existe
una multitud de transportadores, porque las moléculas de los carbohidratos y
de los aminoácidos deben ser llevados al citoplasma antes de que la vacuola di-
gestiva se fusione con la membrana plasmática de la célula y desaparezca. En-
tre estos transportadores se encuentran muchos “transportadores eléctricos”
que atrapan a las moléculas de los nutrientes y un ion de Na+, y luego los pasan
al citoplasma. Nosotros te contamos acerca del funcionamiento del estos trans-
portadores en la sección ¿Para qué necesitan el potencial de reposo las célu-
las no excitables? del Capítulo 5. La diferencia reside solamente en que pre-
viamente hablábamos del transporte de las sustancias nutritivas desde el exte-
rior de la célula hacia su interior, mientras que en los paramecios ese transporte
está dirigido desde el interior de la vacuola digestiva hacia el citoplasma. Sin
embargo, esta diferencia no es significante, porque se puede decir que en el in-
terior de esas vacuolas se encuentra una pequeña parte del ambiente externo.
Así es como, junto con las moléculas de los azúcares y los aminoácidos, entran
al protoplasma los iones de Na+. Y luego el sodio, como quien dijera “realizó
su tarea y se puede retirar”. Solo que el sodio no se retira del interior de la cé-
lula por sí solo, sino que es dirigido por las bombas de sodio hacia la vacuola
contráctil.
302

Existe también una segunda vía de entrada del sodio a la célula del parame-
cio. Como decíamos, los protozoos tienen un gran número de “órganos de los
sentidos”. Veamos cómo es que el paramecio percibe algún contacto mecánico.
Cuando la parte delantera del paramecio choca contra algún obstáculo, en ella
surge un potencial receptor despolarizante, pero si el choque es muy fuerte el
paramecio incluso puede llegar a generar un potencial de acción. Estos poten-
ciales de acción son provocados por la entrada de iones de calcio (Ca2+) cuya
concentración en el agua dulce casi siempre es mayor a la concentración de los
iones de Na+. No obstante durante la despolarización o durante el potencial de
acción al protoplasma de la célula también entran iones de Na+.
La entrada del Ca2+ a la célula actúa sobre los órganos de propulsión del
paramecio—los cilios, siendo este proceso muy parecido al requerimiento de la
entrada de Ca2+ a las células de nuestros músculos para que puedan contraerse
(te relatamos sobre esto cuando analizábamos el funcionamiento de la bomba
de calcio). Por cierto, el disparo de los tricocistos del paramecio también está
vinculado a flujos de Ca2+ que entran a la célula. La mayoría de los canales de
calcio del paramecio se encuentra directamente en la membrana de los cilios.
Si el choque del paramecio provoca un potencial de acción, muchos de los ca-
nales de Ca2+ se abren, permitiendo que una gran cantidad de este ion entre a la
célula. Esto provoca que los cilios del paramecio cambien la dirección de su
movimiento. La célula empieza a “remar hacia atrás” apartándose del obstácu-
lo que haya provocado el choque. Luego de que las bombas de calcio y las mi-
tocondrias eliminan el exceso de Ca2+ del citoplasma, el movimiento de los ci-
lios vuelve a la normalidad y el paramecio vuelve a “remar” hacia adelante.
El estudio del comportamiento del paramecio durante el nado demostró
que el movimiento de los cilios depende del potencial de su membrana. Cuan-
do el potencial de reposo corresponde al normal, los cilios se agitan con una
frecuencia aproximada de 20 veces por segundo, mientras que durante la hiper-
polarización de la membrana la frecuencia de esta agitación incrementa hasta
50 veces por segundo. Cuando ocurre una despolarización fuerte, como ya
mencionamos, la dirección de la agitación cambia a la opuesta, el paramecio
“rema” hacia atrás. En realidad, el movimiento de los cilios es controlado no
por potencial en sí, sino por la concentración de iones de Ca2+ y de otras sus-
tancias. Por ejemplo, durante la hiperpolarización, al igual que como ocurre
durante la despolarización, a la célula entran iones de Ca2+, pero en este caso la
entrada de los iones ocurre a través de otros canales, que tienen una distribu-
ción diferente. En este último caso, la dirección del movimiento no cambia,
sino que aumenta la frecuencia de la agitación de los cilios. Los cilios recubren
casi toda la superficie del paramecio y por ello a la célula le es muy cómodo
controlar sus canales con la ayuda del potencial de la membrana, ya que el
cambio del potencial en una parte de la célula provoca un cambio igual en el
resto de la célula.
Sin embargo, es evidente que el paramecio no puede controlar un gran nú-
mero de procesos a través del potencial de la membrana: estos procesos son
numerosos, pero el potencial de la membrana es uno solo. El paramecio logra
controlar sus diferentes procesos utilizando canales que son sensibles no solo
al cambio en el potencial de membrana, sino también a otros estímulos. Por
ejemplo, los canales de los tricocistos son sensibles a los estímulos mecánicos
(a los choques) y a los estímulos químicos.
También fue descubierto que en la parte trasera del paramecio (en su
“cola”) existe una parte sensible, cuya estimulación provoca la apertura de ca-
nales de potasio y la célula se hiperpolariza, lo que incrementa la frecuencia
del movimiento de los cilios. Como resultado, un paramecio normal comienza
a nadar más rápido (comienza a “escapar”) si le “agarran de la cola”. Si te fijas,
nosotros recalcamos que esto ocurre en un paramecio “normal”. Porque tam-
bién existen paramecios-mutantes. El estudio de estos paramecios demostró
que la mutación en uno de sus genes puede generar un defecto en uno de los
canales.
Existe una mutación que provoca el mal funcionamiento del canal de Ca2+
de la parte delantera del paramecio, que le confiere sensibilidad a los choques.
Al chocar, este paramecio-mutante continúa “golpeándose en la cabeza”, por-
que cuando el paramecio choca, los iones de Ca2+ no pueden entrar e iniciar la
“marcha atrás” de la célula. Existe otra mutación que cambia el funcionamien-
to del canal de otra manera, haciendo más lento el cierre de este canal. Este
tipo de paramecios-mutantes resultan muy “miedosos”: una vez que chocan
con algún objeto los paramecios se precipitan hacia atrás y andan nadando en
marcha atrás durante mucho tiempo, ya que a través de sus canales entran mu-
304

chos iones de Ca2+ y el movimiento normal de los cilios tarda mucho en re-
cuperarse.
Es interesante que tanto la parte delantera del paramecio como su parte tra-
sera reaccionan de diferente manera no solo a los choques, sino también a los
cambios de temperatura. En 1987, investigadores japoneses demostraron que
en la parte delantera del paramecio existe una parte que es sensible al frío,
mientras que la parte trasera tiene cierta sensibilidad al calor. En el caso de los
vertebrados (y también en el caso de nosotros, los humanos) existen células es-
pecializadas, los receptores de calor y de frío. Si aplicamos frío a la parte de-
lantera del paramecio, se abren unos canales de Ca2+, mientras que la aplica-
ción de calor en la parte trasera del paramecio provoca el cierre de canales de
K+. El resultado es el mismo: el potencial de membrana disminuye. No obstan-
te, la diferencia de temperaturas influye no tanto en velocidad de nado del pa-
ramecio, sino en la frecuencia con la que el paramecio cambia la dirección de
su nado (el paramecio “se agita” y empieza a “andar de un lado para otro”). Si
durante este ajetreo el paramecio entra de nuevo en un área con temperatura
normal, el paramecio seguirá nadando el línea recta, alejándose de la zona de
temperatura alta o baja. Lo que aún no se sabe es cómo se regula la frecuencia
de los cambios de dirección del nado. Al parecer, esto tiene que ver con el gra-
do de despolarización: durante una despolarización pequeña no todos los cilios
se reorientan, lo que pudiera explicar el cambio en la dirección del nado (pu-
diéramos suponer que el potencial de membrana del paramecio comienza a
presentar leves “vibraciones”). Aparte, la entrada del Ca2+ hace que la célula se
contraiga, lo que también puede contribuir al cambio en la dirección del nado.
Es interesante también que, al parecer, la variación en la dirección del nado del
paramecio depende en un mayor grado del entorno, que en el caso de las bacte-
rias. Esto se puede deber a la diferencia de las escalas: la superficie de un para-
mecio es por lo menos cien veces mayor a la superficie de una bacteria, por lo
que la relación señal-ruido en el caso del paramecio es por lo menos 10 veces
mayor (correspondiente a aproximadamente 1-3mV).
Una de las propiedades más interesantes de los canales iónicos del parame-
cio sensibles a la temperatura es que tienen “memoria”. Si el paramecio habita-
ba en un ambiente con una temperatura de 20°C, sentirá frío en el agua de
15°C y sus receptores de frío se activan. Sin embargo, si el paramecio estuvo
viviendo por mucho tiempo en un ambiente de 10°C, cuando se lo transfiera al
agua con una temperatura de 15°C sentirá “calor” y se activan sus receptores
de calor. Lo que se desconoce hasta el momento es cómo ocurre este acomoda-
miento de los canales a la temperatura.
En el Capítulo 7 mencionamos que diferentes combinaciones de canales les
confieren propiedades diferentes a las células. Los protozoos poseen una diver-
sidad de canales especialmente grande, porque todos estos canales deben ayu-
darle a la célula a comportarse de diferente manera en diferentes condiciones.
Por ello, el paramecio es un ejemplo muy interesante de este tipo de combina-
ción o mosaico de canales. Por otra parte, el estudio de los paramecios nos
ofrece otra lección muy importante. El funcionamiento conjunto de los canales
iónicos del paramecio dificulta mucho su estudio por separado. Nosotros pudi-
mos entender tanto sobre el funcionamiento del paramecio solamente gracias al
estudio de las células de muchos otros organismos. Es extremadamente útil el
poder comparar diferentes organismos. Resulta que los canales y los organelos
del paramecio se basan en los mismos principios que los canales y órganos de
otros organismos. Sería muy interesante averiguar cuáles de las propiedades si-
milares dependen de mecanismos genéticos obtenidos de un ancestro común y
cuáles propiedades son el resultado de la selección natural, que condujo, a tra-
vés de diferentes caminos, a resultados similares.
Un poco acerca de las estaciones eléctricas de las células y de las bacterias
—las primeras electricistas de la Tierra

Sin esta pequeña parte nuestro libro no estaría completo, porque no hubiéra-
mos mencionado una de las aplicaciones más importantes de la electricidad
para cualquier organismo vivo—proveer a cada célula de energía.
¿De dónde obtienen la energía los organismos? Los animales la obtienen
del alimento que ingieren. Los bioquímicos demostraron que en los animales
que utilizan el oxígeno del aire el alimento es oxidado de manera lenta (para
eso precisamente es que se requiere el oxígeno) y la energía contenida en el ali-
mento es utilizada para la síntesis de una molécula especial—el ATP. Esta mo-
lécula juega el papel de moneda universal y es utilizada para la síntesis de sus-
tancias nuevas, para el funcionamiento de los músculos o de las bombas de io-
nes, y en otros procesos similares.
306

La oxidación del alimento y la síntesis del ATP es realizada por las mitocon-
drias, descritas por primera vez en 1850 por el investigador suizo Rudolph Kö-
lliker en los músculos de los insectos. Todas las células, las de los animales, las
de las plantas y de los hongos tienen mitocondrias y solo las bacterias no las
tienen. (Apenas en el año 2016 fue descrito el primer organismo eucariótico,
una ameba, que no posee mitocondrias debido a que habita en un ambiente an-
óxico.)

Si damos otro paso en nuestra curiosidad y nos preguntamos “¿y de dónde


proviene el alimento?” también podremos obtener la respuesta. A fin de cuen-
tas, el alimento es producido por los organismos fotosintéticos que reciben su
energía del sol. En las plantas, aparte de las mitocondrias, existen otros organe-
los, los cloroplastos, que contienen clorofila. Estos organelos pueden, al igual
que las mitocondrias, sintetizar el ATP, pero aparte son capaces de producir
carbohidratos (moléculas complejas) a partir de agua y dióxido de carbono
(moléculas más sencillas).
Todas las reacciones: las de oxidación del alimento, de la síntesis del ATP,
de la síntesis de los carbohidratos, etc., son bastante complejas, ocurren en pre-
sencia de múltiples enzimas y han sido estudiadas por múltiples colectivos de
investigadores en diferentes partes del mundo. ¿Cómo es que están relaciona-
dos con el tema de nuestro libro? Anteriormente los científicos dirían: ¡no hay
ninguna conexión! Pero en 1961, el investigador inglés Peter Mitchell propuso
la hipótesis de que la energía del alimento primero se convierte en energía
eléctrica y ésta es la que se utiliza para producir el ATP. Esta hipótesis fue fi-
nalmente comprobada y nosotros consideramos necesario contarte un poco so-
bre cómo los organismos se proveen de energía.

¿En qué consistía la hipótesis del Mitchell? Él propuso que la oxidación de


los alimentos produce una diferencia de potenciales en la membrana de las mi-
tocondrias debido a la salida de los protones de estas últimas. Luego esta ener-
gía eléctrica es utilizada para producir el ATP. Mitchell denominó su hipótesis
“hipótesis quimiosmótica”, remarcando que la energía química del alimento se
convierte en el gradiente de protones (H+), es decir—sirve para producir traba-
jo osmótico.
La hipótesis de Mitchell contenía un detalle que la hacía salirse del marco de la
bioquímica clásica y proporcionaba pistas para poder revisarla. Para la bioquí-
mica clásica, que explicaba la síntesis del ATP como una cadena de reacciones,
la presencia de una membrana no implicaba ninguna importancia. Pero para la
hipótesis de Mitchell la presencia de la membrana mitocondrial impermeable
para los iones H+ era crucial.49
En la década de 1960, Mitchell recibió una herencia y organizó un pequeño
laboratorio en su hogar en Cornualles. Precisamente en ese lugar (que, por
cierto, fue descrito por Sir Arthur Conan Doyle en uno de sus textos sobre
Sherlock Holmes), junto con dos ayudantes y equipos muy sencillos Mitchell
se dedicó a comprobar su hipótesis. En 1978 Mitchell recibió el Premio Nobel,
demostrando que no siempre es cierto el pensamiento de que en nuestros tiem-
pos solo un colectivo de científicos con equipos muy sofisticados puede obte-
ner resultados importantes.
Entonces, según la hipótesis de Mitchell, la energía del alimento debe ha-
cer funcionar una bomba de protones que genera una diferencia de potenciales
a través de la membrana de la mitocondria. ¿Cómo se podía revisar esa hipóte-
sis? Primero, se podía intentar registrar esta diferencia de potenciales existente
en la membrana de la mitocondria. Si este potencial no se detectaba, la hipóte-
sis de Mitchell se podía descartar. Segundo, se podía hacer un pequeño orificio
en la membrana de la mitocondria; para este caso, la hipótesis de Mitchell pre-
decía que el ATP dejaría de ser producido. El alimento podría seguir siendo
oxidado, pero no surgiría la diferencia de potenciales y esto no permitiría que
el ATP pudiera ser sintetizado. Por desgracia, las mitocondrias son muy peque-
ñas, tienen un largo de aproximadamente 1 micrómetro. Por eso es imposible
insertarles un microelectrodo o alguna aguja de jeringa. Mitchell requería de
instrumentos más delicados.
Para ello, él decidió utilizar moléculas.

49
Mitchell tenía motivos para considerar el papel de las membranas. Cuando en 1943 él
egresó de la Universidad de Cambridge, comenzó a trabajar con James Danielli, un espe-
cialista en membranas, que en 1935 había propuesto que las membranas representan un
“sándwich” compuesto de dos capas de lípidos (una bicapa lipídica), recubiertas por fue-
ra de proteínas.
308

Antes de que Mitchell hubiese propuesto su hipótesis, ya se habían descubierto


sustancias que se llaman “desacopladores”. Estas sustancias tenían orígenes
químicos muy diferentes, pero todas, siendo aplicadas a las mitocondrias, inhi-
bían la síntesis del ATP, aunque la oxidación del alimento continuaba. Queda-
ba incomprensible cuál era el mecanismo de acción de estas sustancias y cómo
es que podían actuar sobre las enzimas, que casi siempre son muy selectivas en
sus reacciones. Mitchell notó que todas estas sustancias (que “desacoplan” la
oxidación del alimento y la síntesis del ATP) son solubles en lípidos y son ca-
paces de unir iones de H+. Desde el punto de vista de su hipótesis el mecanis-
mo de acción de estas sustancias se explicaba de una manera muy sencilla: es-
tas sustancias capturan los iones de H+ desde el lado externo de la membrana y
los transportaban hacia el lado opuesto, reduciendo la diferencia de potencia-
les. Es como si se produjera un corto circuito uniendo los polos de una batería,
produciendo su rápida descarga.
Es interesante que esta especie de corto circuito puede jugar un papel im-
portante, como fue demostrado en los trabajos del científico soviético Vladimir
Skulachóv y de otros investigadores. Por supuesto, cuando ocurre un corto cir-
cuito, la energía generada no puede ser utilizada para realizar trabajo, pero se
produce mucho calor (los cortos circuitos frecuentemente son causa de incen-
dios). Pero los animales de sangre caliente tienen también que resolver ese pro-
blema: calentar su cuerpo. Tal como se determinó en varios trabajos, un orga-
nismo de sangre caliente (homeotermo), luego de haberse adaptado al frío,
puede por sí solo hacer un corto circuito en las mitocondrias de sus células,
oxidando el alimento para producir calor.
En lo que se refiere al potencial de membrana de las mitocondrias, Mitchell
intentó medirlo utilizando el flujo de K+ dirigido hacia el interior de las mito-
condrias cuando se aplicaba potencial eléctrico. Sin embargo, este método po-
día ser criticado, porque los iones de K+ pueden entrar a las mitocondrias tam-
bién a través de las bombas de sodio-potasio. Vladimir Skulachóv, Efim Liber-
man y sus colaboradores utilizaron con el mismo fin unas sustancias sintéticas
que denominaron “iones permeantes”. Estas moléculas tenían una carga negati-
va o positiva, pero eran solubles en los lípidos (los componentes de las mem-
branas) y no en agua.
En los experimentos de estos científicos, fue demostrado que, en presencia de
oxígeno, cuando el alimento se oxidaba y se generaba una diferencia de poten-
ciales a través de la membrana de las mitocondrias, los iones cargados positi-
vamente empezaban a entrar a las mitocondrias. Este colectivo de autores al-
canzó a “invertir” a las mitocondrias. En estos experimentos los protones (H+)
debían encontrarse en el interior de las mitocondrias, y eran los iones negativos
los que debían entrar a las mitocondrias. Los iones permeables tenían una es-
tructura química muy diversa, por lo que no se podía decir que eran transporta-
dos al interior de las mitocondrias por medio de transportadores especiales. De
esta manera, fue comprobado que durante la oxidación del alimento se genera
un potencial en la membrana de las mitocondrias.
A continuación, te mencionaremos otro de los elegantes experimentos que
comprueban la segunda parte de la hipótesis de Mitchell—que el potencial de
la membrana puede ser utilizado para la síntesis de ATP. Este experimento fue
realizado por el científico estadounidense Berton Pressman en 1967. Las mito-
condrias eran mantenidas en un medio con alto contenido de K+ de tal manera
que este ion era acumulado dentro de las mitocondrias. Luego las mitocondrias
eran transferidas a un medio sin sustancias nutritivas y sin oxígeno (o sea, se
encontraban en condiciones en las cuales no se podía generar ATP), y se agre-
gaba un antibiótico especial, la valinomicina, que incrementa la permeabilidad
de las membranas al K+. Los iones de potasio (K+) comenzaban a salir de las
mitocondrias y en sus membranas comenzaba a generarse un potencial de repo-
so generado por el gradiente de iones de potasio. En estas condiciones las mi-
tocondrias comenzaban a producir ATP.
De la misma manera, fue demostrado que el potencial de membrana es ge-
nerado en los cloroplastos. En el caso de los cloroplastos sí se pudo encontrar
un cloroplasto lo suficientemente grande como para poder introducir un mi-
croelectrodo y poder medir el potencial generado. Este trabajo fue realizado
por los científicos rusos Alexander Bulychóv, Vladimir Andriánov, Grégor
Kurélla y Félix Litvín.
Previamente, nosotros mencionamos que en las diferentes células existen
bombas de iones que funcionan utilizando la energía del ATP. Pero ahora ve-
mos que para la síntesis del ATP se requiere del funcionamiento de la bomba
310

de protones que utiliza como fuente de energía el alimento o la luz. De esta


manera en la célula funciona toda una “cascada de bombas”.
En las mitocondrias y en las bacterias que utilizan el oxígeno del aire, la
energía obtenida de la oxidación del alimento se utiliza para: 1) expulsar los
protones hacia el medio exterior, 2) para la síntesis del ATP en el interior de
las mitocondrias. Pero también se requiere transportar el ATP desde el interior
de las mitocondrias al protoplasma, y también hay que transportar hacia el inte-
rior de las mitocondrias los componentes necesarios para producir el ATP.
Los mismos procesos ocurren en las bacterias fotosintéticas y en las ciano-
bacterias, sólo que en este caso la fuente de energía es la luz.

Fig.68 Similitud y diferencias entre las mitocondrias, bacterias “respiradoras”,


bacterias fotosintéticas y tilacoides de los cloroplastos.

Los cloroplastos de las plantas funcionan de otra manera. En su interior contie-


nen unos saquitos especiales de membranas—los tilacoides, cuyas membranas
“están volteadas”, o sea, se comportan como mitocondrias “volteadas” de los
experimentos de Skulachóv y Líberman. En el caso de los tilakoides, los proto-
nes son bombeados hacia su interior, y el ATP se produce en su superficie ex-
terna. La membrana de las mitocondrias contiene muchos pliegues (que se lla-
ma crestas), y es posible que los tilacoides se hayan formado gracias a la fu-
sión de la parte interior de los pliegues de las mitocondrias, aunque hoy en día
se considera que fueron las cianobacterias las que les dieron su origen a los ti-
lakoides. Podemos pensar que eso haya podido haber ocurrido, porque las célu-
las con frecuencia utilizan las vacuolas que se forman de sus membranas para
absorber el alimento, las sustancias nutritivas que se encuentran en el medio
exterior (Fig.68).
Recordemos por un momento la historia del descubrimiento de la estructu-
ra de la membrana. Por mucho tiempo esa estructura fue tan solo una hipótesis,
una predicción realizada en base al estudio de la ósmosis. Ahora, por fin, pode-
mos decir que los científicos conocen la estructura de la membrana. Y pode-
mos observar que existe una membrana que recubre a la célula, que en el inte-
rior de la célula existe la membrana del cloroplasto, y dentro de éste—la mem-
brana de los tilacoides. Y, aparte de estas estructuras, en las células existe un
gran número de estructuras con membranas. Pudiéramos decir entonces que el
lema de las células es: “Membranas en el interior de membranas”.
El funcionamiento de las mitocondrias puede ser representado como el fun-
cionamiento de una estación de generación de electricidad (Fig.69). El sistema
de enzimas genera un flujo de protones orientado hacia afuera, que produce
una diferencia de potenciales—éste sería el generador. Luego los protones se
“filtran” al interior por otras partes de la membrana y esta energía se utiliza
para la síntesis del ATP—esta parte correspondería al “consumidor” de la elec-
tricidad producida. Entonces, las mitocondrias contienen tanto un generador
como un consumidor de electricidad.
Si hacemos un corto circuito, al consumidor “se le va la luz” y el ATP ya
no se produce. Por otra parte, si dejamos de suplementar las sustancias necesa-
rias para producir el ATP (es decir, cuando el “consumidor de electricidad” es-
tá desconectado), todo el conjunto deja de consumir energía y se reduce al mí-
nimo la respiración, la oxidación del alimento.
En la Fig.69 es mejor representar al consumidor como un “motor eléctri-
co”. Y es que ese “consumidor”, al igual que los motores eléctricos, puede ser
revertido. Si en el interior de las mitocondrias hay cierta cantidad almacenada
de ATP y el potencial de la membrana es un poco bajo, el ATP empieza a des-
312

componerse para producir el flujo de protones hacia afuera, de la misma mane-


ra que un motor eléctrico empieza a generar electricidad si le damos vuelta
mecánicamente. En la vida real, esta propiedad de las mitocondrias no se uti-
liza. Sin embargo, en las bacterias sí puede ocurrir la reversión mencionada. En
1977 fue demostrado que este proceso puede ocurrir en los estreptococos que
obtienen su energía a través de la glicólisis y sintetizan el ATP (en estas condi-
ciones no funciona el sistema de “respiración” y no se genera un potencial en
la membrana celular). Parte del ATP producido las bacterias lo utilizan para
crear el potencial a través de la membrana, el cual es necesario para el trans-
porte de nutrientes hacia el interior de la célula.

Fig.69 A — Funcionamiento de las mitocondrias de acuerdo a la hipótesis de Mi-


tchell. B — efecto de los desacopladores (que provocan un “corto circuito”). C —
suspensión del suministro de sustancias requeridas para la síntesis del ATP (“desco-
nexión del consumidor”). En la parte izquierda se muestra el esquema de funciona-
miento de la membrana, en la derecha — el esquema eléctrico equivalente.
La hipótesis de Mitchell se convirtió en una de las bases de la Bioenergética.
Pero no debemos pensar que esta hipótesis dio respuesta a todas las preguntas.
Luego correspondía determinar cómo precisamente funcionan las enzimas que
crean el potencial de membrana de las mitocondrias, y también faltaba determi-
nar el mecanismo de la síntesis del ATP. Hoy ya sabemos algo sobre el funcio-
namiento de esas máquinas moleculares.
Pero nosotros quisiéramos recalcar otra vez que la “electricidad animal” no
solo es una propiedad de los nervios y los músculos. Cada célula que respira,
cada célula que posee la capacidad de fotosíntesis, utiliza energía eléctrica. Las
mitocondrias y los cloroplastos son las verdaderas estaciones eléctricas de la
célula que convierten el alimento (“el combustible”) o la luz en electricidad.
Las bacterias—las primeras electricistas de nuestro planeta. Ellas
inventaron el motor eléctrico, la transmisión eléctrica a través de cables y
las baterías eléctricas.
Las células animales contienen mitocondrias como productores de electricidad.
Las células de las bacterias son generadores de electricidad en sí mismas. Las
bacterias también pueden generar ATP utilizando el alimento o la luz, a través
de la generación del potencial de membrana creado por la expulsión de los pro-
tones hacia el medio externo. Pero resulta que las bacterias utilizan el potencial
de membrana no solo para la síntesis del ATP.
En 1974, el microbiólogo estadounidense Julius Adler estudiaba una línea
mutante de la bacteria Escherichia coli. Estas mutantes “oxidaban” el alimento,
pero no producían ATP. Cuando se les suplementaba oxígeno, estas bacterias
empezaban a nadar. Este resultado era sorprendente, porque la noción común
de ese entonces era que, para el movimiento, ya sea para la contracción de los
músculos o para el movimiento del flagelo, se necesitaba energía del ATP. Los
experimentos de Adler demostraron que la energía de la oxidación del alimento
puede ser fácilmente convertida en movimiento sin el requerimiento de la pre-
sencia del ATP. Además, Adler demostró que el movimiento de las bacterias
se puede reducir en presencia de los desacopladores. Estos resultados fueron
explicados por Vladimir Skulachóv, quien propuso que las bacterias pueden
utilizar de manera directa su potencial de membrana para controlar el movi-
miento del flagelo.
314

Acá tenemos que mencionar que el flagelo de la bacteria es un dispositivo es-


pecial que se distingue drásticamente del cilio del paramecio. Las bacterias tie-
nen dos membranas: una es la membrana externa, la cual es muy resistente, y
la segunda membrana es completamente similar a la membrana de las células

Fig.70 Funcionamiento del “electromotor” bacteriano y transmisión de la elec-


tricidad a distancia en las cianobacterias. A — representación esquemática del
“motor” que hace girar el flagelo de la bacteria. B — transmisión de energía eléctri-
ca a lo largo de una colonia de cianobacterias. Al iluminar la “cabeza” de la colonia,
surge un potencial de membrana producido por la bomba de protones de la membra-
na plasmática. A través de los contactos intercelulares la corriente fluye hacia otras
células y activa los “electromotores”. La corriente que fluye en el medio externo
puede ser registrada.

animales. El flagelo contiene una proteína especial—la flagelina. Esta proteína


se adhiere a una especie de eje, que atraviesa la membrana rígida externa
(Fig.70A). En este eje se encuentran varios discos que juegan el papel de coji-
netes (o baleros). El primer disco se encuentra hundido en la membrana interna
de la bacteria.
Si en el caso del paramecio el cilio funciona como si fuera un remo, “gol-
peando” el agua, en el caso de las bacterias el flagelo funciona rotando, como
las hélices de los helicópteros. Este movimiento rotatorio fue demostrado como
se menciona a continuación. Inyectando flagelina a conejos se pudieron obte-
ner anticuerpos hacia esta proteína (los anticuerpos se pegan a la proteína del
flagelo). Estos anticuerpos eran fijados al vidrio de una cámara especial (una
especie de recipiente) y luego se introducían las bacterias a la cámara, que se
“pegaban” con el flagelo hacia el vidrio.

Ahora que el flagelo de la bacteria estaba pegado al vidrio se podía ver có-
mo empezaba a girar la bacteria. Muchas veces dicen que la naturaleza inventó
todo, menos la rueda. Ahora ya podemos ver que la naturaleza inventó precisa-
mente la rueda, y casi en los comienzos de la evolución.
Pero si el movimiento de las bacterias depende directamente del potencial
de la membrana, ¡entonces las bacterias inventaron no solo la rueda, sino tam-
bién el motor eléctrico! Esa idea fue revisada por Alexéy Glagólev en otro tipo
de bacterias—las bacterias púrpuras. Él demostró que la velocidad de la bacte-
ria, efectivamente, depende de su potencial de membrana. El experimento fue
muy interesante. Las bacterias eran sometidas al efecto de sustancias que elimi-
naban el potencial que depende del gradiente de protones (H+). Pero luego se
agregaba otra sustancia—la valinomicina, que incrementa la permeabilidad de
la membrana bacteriana para los iones de potasio (K+). El potasio comenzaba a
salir de las bacterias y surgía un potencial a través de la membrana. Y, en esas
condiciones, cuando las bacterias estaban “doblemente envenenadas”, ¡empe-
zaban a nadar de nuevo!
Es interesante, que el motor de las bacterias puede ser revertido. Si el fla-
gelo se mueve en dirección de las manecillas del reloj, entonces la bacteria
nada con el flagelo mirando hacia adelante. Pero si el flagelo gira en dirección
opuesta a la de las manecillas del reloj, las bacterias nadan con el flagelo mi-
rando hacia atrás.
316

Se han propuesto algunos modelos específicos que explican cómo es que la


energía eléctrica se convierte en el giro mecánico del flagelo. Fue demostrado
que el potencial de membrana necesario para el funcionamiento del motor es
alrededor de 200 mV, que la potencia del motor es aproximadamente 10-17 W,
y que a través del flagelo entran a la bacteria aproximadamente 1000 protones
por segundo. El mecanismo de regulación de la dirección de giro del flagelo
fue determinado una década después de la publicación de la primera edición
del presente libro. La dirección de giro del flagelo resultó depender de un sen-
sor especial—la proteína CheY en su forma fosforilada (CheY-P) que se une a
los discos en la base del flagelo. Al unirse, CheY-P promueve el giro del flage-
lo en el sentido de las manecillas del reloj (si miramos a la base del flagelo
desde “fuera” de la bacteria).
Nosotros ya pudimos ver cómo el potencial de membrana puede ser utiliza-
do por las células con los fines más diversos: en las mitocondrias, en los cloro-
plastos y en las bacterias—para la síntesis del ATP; en las bacterias—para gi-
rar el flagelo; en las células en general—para el transporte de las sustancias,
por ejemplo, en los animales—para el transporte de azúcares, en las mitocon-
drias—para la entrada del Ca2+ (las mitocondrias absorben el Ca2+ del citoplas-
ma de las células) y en las bacterias—para la absorción del K+, etc. También
los “cortos circuitos” pueden ser utilizados para generar calor. Todo esto le
permitió a Vladimir Skulachóv a proponer la existencia de dos mecanismos
universales de almacenamiento de energía: el ATP y el potencial de membrana
(a diferencia de lo pensado comúnmente de que el ATP es el único mecanismo
para almacenar y mantener la energía). Con esto, se hace evidente que el po-
tencial de membrana es necesario para cada célula, no solo para los filamentos
nerviosos.
Por lo general, las células utilizan como fuente de energía el potencial de
membrana generado por la acumulación de iones de hidrógeno (los protones).
Aunque, como ya vimos, la presencia de los protones no es fundamental. Las
bacterias “envenenadas” comenzaban a nadar incluso en aquellos casos cuando
el potencial de membrana era creado por el gradiente de potasio (K+). Por esto,
a Skulachóv le surgió la idea de que cualquier potencial de membrana es un re-
servorio de energía, que se puede utilizar en caso de necesidad. Este tipo de re-
servorio es especialmente notable en las bacterias que habitan en el agua salada
y que bombean mucho potasio a su interior. Cuando les da la luz, estas bacte-
rias producen ATP usando la bacteriorodopsina y mantienen su potencial de
membrana. Pero si se colocaba a estas bacterias en la oscuridad y en un medio
sin oxígeno, pero con KCl, rápidamente dejaban de moverse, ya que no tenían
fuentes de energía. Sin embargo, si las bacterias eran transferidas a un medio
similar, pero con NaCl, tan solo por la diferencia de potenciales el movimiento
se mantenía por 9 horas. De esta manera, las bacterias tenían un acumulador de
energía eléctrica que se puede cargar tanto del sol, como de las “estaciones ter-
moeléctricas” (la oxidación del alimento).
Pero esto no es todo. Existe un grupo especial de bacterias, las cianobacte-
rias. Estas bacterias son unos de los organismos más antiguos de nuestra histo-
ria y tienen algunas características peculiares: poseen la capacidad de fotosínte-
sis, pueden consumir el nitrógeno atmosférico por sí solas, etc. Entre las ciano-
bacterias existen organismos multicelulares que parecen una lombriz, y cada
segmento de los cuales está compuesto por una sola célula. Estas células tienen
funciones ligeramente diferentes y están unidas mediante orificios intercelula-
res. La similitud con una lombriz aumenta si consideramos que estas bacterias
pueden desplazarse. Estas bacterias tienen una fototaxia positiva, es decir, se
mueven hacia la luz. La resistencia de su membrana, al igual que la resistencia
de la membrana de las mitocondrias, es muy alta. El largo total de las células
es de algunos milímetros.
Mediante los trabajos de Skulachóv, Chailahyán y sus colaboradores, fue
demostrado que las cianobacterias pueden transmitir la electricidad a distancia.
Eso fue demostrado de la siguiente manera. Para empezar, se descubrió que
esas bacterias pueden desplazarse utilizando como única fuente de energía su
potencial de membrana, sin la necesidad de usar ATP. En un experimento las
bacterias fueron transferidas a unas condiciones en las que el potencial se gene-
raba únicamente gracias a la luz. En la oscuridad las bacterias no se desplaza-
ban, mientras que, si se iluminaba tan solo una parte de la “lombriz” bacteria-
na, el movimiento comenzaba a ocurrir a lo largo de todo el filamento bacte-
riano (Fig.70B). Incluso, fue registrada una diferencia de potenciales en el me-
dio externo entre las partes anterior y posterior de la bacteria. Nos podrías ar-
gumentar que ya mencionamos algo acerca de la transmisión de la electricidad
en el filamento nervioso. Por supuesto, la transmisión del impulso nervioso es-
318

tá relacionada con procesos de generación y consumo de energía. Pero el sig-


nificado del impulso es la transmisión de información. A través de una sinapsis
química no se transmite energía, sino solamente una señal que activa las pro-
pias fuentes de energía de la célula-receptora. El caso de las cianobacterias es
diferente. En su caso, desde el sitio iluminado se transmite precisamente ener-
gía hacia los motores eléctricos, de la misma manera que la electricidad se
transmite desde las estaciones eléctricas a los consumidores de energía (por
ejemplo, al refrigerador de nuestra casa). Entonces, las bacterias pueden gene-
rar, transmitir y acumular energía eléctrica.
Cómo es que el inquilino se convierte en estación eléctrica
En secciones anteriores no por casualidad mencionamos juntos a las mitocon-
drias, a los cloroplastos y a las bacterias. Muchos biólogos consideran que to-
das estas estructuras son familiares cercanos y que, en los albores de la vida,
cuando en la Tierra empezó a aparecer una cantidad suficiente de oxígeno, las
bacterias que sabían utilizarlo entraron en simbiosis con las células primitivas,
parecidas a amebas, y se quedaron a vivir dentro de las últimas. Estas bacterias
proveían ATP a la célula hospedadora, que se encargaba de proveer nutrientes
y de proteger a sus huéspedes, las bacterias. De acuerdo a esta hipótesis, los
cloroplastos surgieron de la misma manera.
Esta hipótesis ya tiene más de 100 años. Su historia es muy complicada: a
veces se olvidaba, a veces resurgía. En la década de 1920 recibió mucho apoyo
por parte de los botánicos, probablemente, por la impresión que produjo el des-
cubrimiento de que los líquenes eran organismos simbióticos, una simbiosis
entre un hongo y un alga. También los datos de la biología molecular apuntan
hacia la certeza de la hipótesis mencionada.

Por ejemplo, las mitocondrias, al igual que las bacterias, tienen dos mem-
branas. La membrana externa tiene poros bastante grandes. Pero la membrana
externa de las bacterias es muy resistente, porque debe proteger a la célula bac-
teriana de cambios osmóticos, mientras que en las mitocondrias es la célula
hospedera la que se encarga de mantener constante las condiciones osmóticas.
Las mitocondrias tienen su propio ADN, que, al igual que el ADN de las bacte-
rias, es circular. Las mitocondrias también tienen sus propias fábricas de pro-
teínas—los ribosomas mitocondriales. Resulta que estos ribosomas se parecen
más a los ribosomas bacterianos que a los de las células hospederas. Por ejem-
plo, los antibióticos estreptomicina y tetraciclina inhiben el funcionamiento de
los ribosomas bacterianos y de las mitocondrias, pero no afectan el funciona-
miento de los ribosomas de la célula hospedera, mientras que la cicloheximida
tiene un efecto contrario. Las mitocondrias pueden dividirse dentro de las célu-
las hospederas. Podemos mencionar otras pruebas a favor de la hipótesis men-
cionada (pero también podemos mencionar pruebas en contra), sin embargo,
esto nos llevaría lejos del tema de nuestro libro.
Prácticamente todos los animales, plantas y hongos, —o sea, los organis-
mos que respiran, tienen mitocondrias muy parecidas. Las excepciones existen-
tes solamente comprueban la regla. Por ejemplo, existen amebas que no tienen
mitocondrias, pero tienen bacterias-simbiontes que cumplen la misma función.
Según las hipótesis más extravagantes, las células de los organismos superiores
son una mezcla de muchos componentes: según estas hipótesis, las estaciones
eléctricas para la respiración y la fotosíntesis fueron obtenidas de las bacterias,
y los órganos de movimiento (los flagelos, los cilios)—de espiroquetas (otro
tipo de bacterias) simbióticas.
La electricidad y los reflejos condicionados
Tal vez hayas escuchado algo acerca de los experimentos del científico ruso
Iván Pávlov sobre cómo se producen los reflejos condicionados en los anima-
les. Si le dejamos a un perro escuchar un sonido específico al mismo tiempo
que le damos comida, luego de repetir varias el experimento el perro comenza-
rá a salivar al oír ese sonido, aunque esto no ocurra antes de que se forme el
reflejo condicional. Es muy interesante saber entonces qué ocurrió dentro del
cerebro durante la generación del reflejo condicional. ¿Cómo es que se trans-
mite la información desde los receptores auditivos a las glándulas salivarias?
Lamentablemente, en vez de respuestas, los biólogos solo podían proponer mo-
delos conceptuales, diciendo que en el cerebro “se trazan rutas nuevas” o “se
forman nuevas conexiones”. Solo en años más recientes se han realizado expe-
rimentos que nos acercan más a las respuestas a esta pregunta.
El estudio de los mecanismos de los reflejos condicionales se lleva a cabo
en organismos muy diversos, incluso en aquellos que no tienen muchas neuro-
nas. Acá te contaremos acerca de los resultados obtenidos en el molusco gas-
320

trópodo Hermissenda. Durante el día, estos moluscos se mueven hacia la luz.


Es decir, tienen una fototaxia positiva, o, en otras palabras—suben a la su-
perficie del mar donde encuentran su alimento. Sin embargo, si el oleaje es
muy fuerte, el molusco se mueve en dirección opuesta a la luz, es decir, hacia
el fondo. En condiciones de laboratorio se le creaba al molusco un reflejo con-
dicional: primero los iluminaban con luz y luego agitaban el agua o los giraban
en una centrífuga especial. Luego de varias repeticiones de estas condiciones el
molusco se movía hacia la luz con una velocidad mucho más lenta, o incluso
dejaba de desplazarse hacia la luz. Este reflejo tenía todas las características de
los reflejos condicionados que se presentaba en los perros y otros organismos:
la respuesta no se presentaba si la iluminación y la agitación se aplicaban en
orden aleatorio (independientemente), desaparecía al cabo de ciertas semanas,
y si se aplicaba solamente la luz sin la agitación—desaparecía de manera más
rápida, etc.
En la producción del reflejo participan los fotoreceptores del molusco (5 en
cada uno de sus ojos), los receptores vestibulares (que reaccionan al giro o agi-
tación), las motoneuronas que controlan el movimiento del animal, y algunas
interneuronas que conectan entre sí las células mencionadas arriba. El esquema
de conexión entre estas células fue determinado (Fig.71) y se intentó determi-
nar en qué parte del esquema es que surgen los cambios durante el “aprendiza-
je” del molusco, qué neuronas o sinapsis cambian, o, en otras palabras—se
intentó ver en qué consiste el “la nueva ruta”.
Primero veamos en qué consiste la fototaxia positiva (Fig.71A). Dos célu-
las fotoreceptoras del tipo A excitan a una interneurona, que activa la motoneu-
rona, y ésta, a su vez excita al músculo responsable del movimiento. ¿Qué es lo
que ocurre como resultado del aprendizaje? La conclusión, obtenida al cabo de
muchos experimentos, resultó ser asombrosa. En el molusco la producción del
reflejo condicionado resultó estar relacionada al cambio de las propiedades de
las células fotoreceptoras, pero no estaba relacionada al cambio de las propie-
dades de las interneuronas y las sinapsis, como pensaban los investigadores.
Aparte de los fotoreceptores del tipo A, el molusco tiene 3 fotoreceptores
del tipo B (Fig.71B); estos dos grupos de fotoreceptores inhiben mutuamente
su funcionamiento. Antes del “aprendizaje”, las células A inhiben de manera
más fuerte a las células B y por eso pueden provocar una fototaxia positiva.
Luego del “aprendizaje”, las células B empiezan a reaccionar a la luz de mane-
ra más fuerte. Ahora son estas últimas las que “ganan” y empiezan a inhibir el
funcionamiento de las células A, disminuyendo la velocidad del movimiento en
dirección hacia la luz. Entonces, algo sucedió en las células B, que son sensi-
bles a la luz y a la señal del sistema vestibular. Resulta, que en las células B
tiene lugar la disminución del potencial-umbral. En otros experimentos se estu-
dió por qué disminuye el umbral: si por la acción de una sustancia química li-
berada por el aparato vestibular, o por la despolarización provocada por esa
sustancia. Para ello se intentó producir un reflejo condicional que combinara la
acción de la luz y la despolarización de los receptores del tipo B a través de un
microelectrodo. En este caso también se generaba el reflejo condicional. Esto
significa que bajo el efecto de la luz y la despolarización cambian de alguna
manera las propiedades de la membrana de las células del tipo B, de tal manera
que su umbral disminuye.

Fig.71 Mecanismos celulares de aprendizaje. A — red neuronal responsable del


movimiento del molusco hacia la luz. B — red neuronal que, después del proceso de
aprendizaje, previene su movimiento hacia la luz (la flecha indica el lugar en el que
surgen los cambios asociados al aprendizaje).

¿Qué sucede con la membrana? Resulta que luego del “aprendizaje” no solo
cambiaba el umbral de las células del tipo B, sino que aparecía también una
propiedad nueva: luego de que se apagaba la luz, la despolarización se mante-
nía durante algunos minutos. Esta observación hacía pensar que en las células
322

del tipo B el potasio sale más lentamente de las células y por eso su nivel no
llega rápidamente a la normalidad. Tal vez estas células tienen menos canales
de potasio, o se dificulta su funcionamiento. En trabajos subsecuentes fueron
determinados los mecanismos bioquímicos que conllevan al cambio de las pro-
piedades de los canales de potasio.
Bueno, resulta que al menos en los moluscos, los reflejos condicionales se
producen como resultado del cambio de las propiedades eléctricas de las mem-
branas de las células fotoreceptoras debido a la disminución de la eficiencia del
funcionamiento de sus canales de potasio. En otra especie de moluscos fue de-
mostrado que otro de los reflejos que se producen mediante un mecanismo si-
milar es la retracción del sifón respiratorio durante una estimulación mecánica
del cuerpo del molusco.
Sin embargo, no hay que pensar que la producción de cualquier reflejo
condicional debe estar relacionada a un cambio en las propiedades de las mem-
branas celulares. Ahora ya conocemos casos cuando los reflejos se producen
mediante otros mecanismos—mediante el cambio en el funcionamiento de la
sinapsis. En este caso, efectivamente, estamos ante un mecanismo del tipo
“apertura de una nueva ruta”.
Nadie puede saberlo todo
Nosotros te contamos sobre muchas de las funciones de la electricidad en los
organismos vivos. Pero no pienses que las abarcamos todas en este libro. Por
ejemplo, no te contamos sobre los procesos eléctricos que tienen lugar en las
plantas. Y las plantas, por si no lo sabías, también pueden generar potenciales
de acción. Por ejemplo, el movimiento de las hojas de las plantas (incluyendo a
las carnívoras) se debe a la propagación de un potencial de acción.
También quisiéramos contarte acerca de los relojes biológicos. Porque mu-
chos organismos (plantas y animales) saben “reconocer” la hora del día. Noso-
tros traemos nuestros relojes en las manos o en las bolsas, pero muchos crustá-
ceos y moluscos esconden sus relojes en un lugar mucho más seguro: en su
propio ojo. Ahora ya se ha demostrado que esos relojes son eléctricos. Con la
ayuda de un impulso eléctrico artificial estos relojes se pueden “cambiar de ho-
rario”, del “día” a la “noche”. Y si cambiamos el contenido iónico del medio
externo que rodea a las células formadoras del reloj, incluso se puede lograr
que el reloj se atrase. Si leíste atentamente, no te será asombroso saber que el
reloj está formado por un grupo de células que están conectadas entre sí me-
diante sinapsis eléctricas, porque en este caso también surge el problema del
ruido.
Sería también muy interesante contarte sobre cómo cambia la estructura
del hueso durante las variaciones de la fuerza a la que está sometido. Pues re-
sulta que, bajo el efecto de diversas fuerzas, en el hueso surgen campos eléctri-
cos y, dependiendo del campo eléctrico formado, las células que forman el
hueso remodelan la estructura del hueso de tal manera para que resista mejor a
la fuerza aplicada.

Pero hay que detenernos en algo. Te proponemos terminar nuestra historia


en el mismo punto donde la comenzamos. La electrofisiología como ciencia
empezó con el estudio de la corriente de lesión. Podríamos pensar que esta co-
rriente hace tiempo que jugó su papel y se perdió en la historia. Pero, si lo pen-
samos… ¡los nervios a veces se dañan! ¿Qué es lo que les pasa en este caso?
Nosotros sabemos que la corriente de lesión disminuye bastante rápido
(disminuye 10 veces en una hora y 100 veces en un día). Esto se explica con el
hecho de que en el lugar dañado se forma una membrana nueva. Sin embargo,
resultó que con el paso del tiempo esta corriente ya no disminuye y mantiene
su magnitud por semanas en el nervio que se está regenerando. En 1947, el
biólogo estadounidense Lorente de Nó propuso la hipótesis que esa corriente
juega un papel importante en el proceso del crecimiento y la regeneración, por
ejemplo, ayuda a enviar al extremo del nervio creciente alguna sustancia o es-
tructuras importantes (y, efectivamente, en la punta del nervio creciente se acu-
mulan por, ejemplo, las mitocondrias). Pero si la corriente de lesión ayuda a
reparar el nervio, entonces, a lo mejor, se podrá hacer más rápido este proceso
haciendo pasar una pequeña corriente constante en la dirección adecuada… Así
comenzaron los experimentos para hacer más rápido el crecimiento de las patas
de las cucarachas en condiciones de laboratorio, y luego—los experimentos
para hacer más rápido la cicatrización de las heridas en los mamíferos. Apare-
cieron así una serie de resultados prometedores. Pero, si la corriente influye en
el crecimiento, ¿sería posible con la ayuda de la corriente hacer más rápido el
crecimiento de los embriones?..
324

Pero... hasta acá llega nuestra expedición.

¡Más, más, y aún más!


Los libros se publican muy lentamente. Desde que escribimos que “hasta acá
llega nuestra expedición” pasó mucho tiempo y en la biología aparecieron co-
sas muy interesantes sobre las cuales quisiéramos hablarte. Probablemente es
necesario señalar que la mayoría de estos nuevos descubrimientos aparecieron
ahí, donde la electrobiología se conecta con la biología molecular. Es difícil es-
coger el descubrimiento más interesante. Te pudiéramos contar por qué la raíz
de la planta crece hacia abajo—este fenómeno también está relacionado con la
electrobiología. Te pudiéramos hablar acerca del funcionamiento de los recep-
tores del olfato: resulta que las sustancias con olor inician las mismas cascadas
de reacciones que se inician en los fotoreceptores bajo el efecto de la luz. Pero
nosotros decidimos contarte sobre los trabajos en el área de la inmunología,
que, a primera vista, no está relacionada de ninguna manera con la electrobio-
logía.
Desde 1882, Ilya Méchnikov descubrió el fenómeno de fagocitosis y desa-
rrolló la teoría de inmunidad celular. Durante los años que pasaron, la inmuno-
logía pasó a ser una disciplina biológica independiente, a una de las fronteras
de la biología contemporánea. Los inmunólogos demostraron que los linfocitos
saben eliminar células ajenas al organismo, y también saben eliminar a las cé-
lulas propias que cambiaron sus propiedades, por ejemplo, las células cancerí-
genas o las células que están infectadas con viruses. Lo que no se sabía hasta
hace mucho era el mecanismo de cómo lo hacían. Esta cuestión se ha esclareci-
do en los últimos años.
Ya hace bastante tiempo se sabía que, para eliminar a su blanco, el linfoci-
to debe entrar en contacto directo con éste. Si introducimos un microelectrodo
en la célula-blanco y registramos el potencial de membrana (esto lo lograron
hacerlo los científicos estadounidenses), podemos observar que poco después
del ataque del linfocito el potencial de membrana de la presa cae de manera
abrupta. Resulta que el linfocito empieza a agujerear la membrana de su presa,
haciendo un corto circuito. A través de esos orificios de la presa sale el potasio,
mientras que a su interior entran los iones de sodio y de calcio. Las bombas de
iones de la presa gastan en balde la energía disponible—el potencial de mem-
brana no aumenta y la célula-presa muere en pocos minutos.
Pero ¿cómo es que el linfocito hace los agujeros en la membrana de la cé-
lula-presa? Porque, por ejemplo, un orificio por la punzada de un microelectro-
do no lleva a la muerte de la célula: luego de extraer el microelectrodo la “heri-
da” en la membrana se cierra rápidamente. Resulta que durante el contacto con
su presa el linfocito, utilizando unas vacuolas, libera una proteína especial (este
proceso se parece mucho a la liberación de los neurotransmisores en las sinap-
sis químicas). Estas moléculas de proteína se integran a la membrana de la
presa donde forman una especie de canal, que agujerea a la membrana. La pro-
teína que forma esta membrana se llama perforina. El canal formado por la
perforina se parece al canal que se forma con la conexina (que vimos en el Ca-
pítulo 7). Pero los conexones tienen un especie de “tapas” y se abren solamente
cuando dos células se unen, conectándolas entre sí, mientras que los canales de
las perforinas no tienen “tapas” y siempre se encuentran abiertos. La célula-
presa no puede tapar con membrana nueva los canales formados por las perfo-
rinas y no tiene tiempo para medidas más radicales.
Pero ¿por qué durante el ataque no muere el linfocito mismo? Debería ser
que la perforina, liberada en el espacio entre las dos células se integre no solo
en la membrana de la presa, sino también en la membrana del linfocito. Y efec-
tivamente, las moléculas de la perforina se integran a la membrana del linfoci-
to, pero no lo matan. Y es que los linfocitos tienen un antídoto—una proteína
especial que se une a las subunidades de la perforina y no las deja formar un
canal.
Pudiéramos pensar que este sistema tan complicado de ataque y defensa
propia existe solamente en las células especializadas—los linfocitos (en reali-
dad, pudiéramos pensar que existe solamente en los linfocitos citotóxicos del
tipo T) de un organismo multicelular. Pero resulta que esto no es así: la misma
estrategia la utilizan algunas bacterias y algunos protozoos y hongos. Así tam-
bién es como cazan algunas de las amebas. En realidad, las amebas y los hon-
gos producen proteínas que diferentes de la perforina, pero que tienen un me-
canismo de acción similar.
326

Pero ahora nuestra expedición al mundo de la Electrobiología concluye de ma-


nera definitiva. Sin embargo, en lo que este libro cae en tus manos, seguramen-
te se harán muchos y muchos nuevos descubrimientos. ¡La expedición conti-
núa!
Epílogo

Nuestro libro ya casi llega a su fin. Luego de que el autor termina de escribir el
libro es cuando escribe el prefacio, porque solamente en ese momento es que
se da cuenta de qué trata el libro. Contrario a lo establecido, nosotros escribi-
mos nuestro prefacio antes de empezar a escribir el texto principal y luego, ha-
biendo terminado de escribir el texto completo, lo releímos, pero no lo cambia-
mos. Pero debido a esto surgió la necesidad de escribir también un epílogo.
Nosotros queremos recalcar uno de los momentos más importantes de
nuestro recuento. Cuando apenas comenzaba la Electrobiología, parecía que
los fenómenos eléctricos en los organismos vivos son una nueva clase de fenó-
menos poco relacionados con otras características de los organismos vivos y
solo son particularidades de los tejidos excitables. Al terminar de leer este li-
bro, ya puedes darte cuenta que estos supuestos estaban muy lejos de la reali-
dad.
Nosotros te contamos sobre los tejidos-sincitios, en los cuales las células
están conectadas unas con otras mediante contactos de alta permeabilidad, a
través de los cuales las células intercambian señales y sustancias, ayudándose
mutuamente. Las ciencias exactas no parecen protozoos, cada uno de los cuales
nada por sí solo, sino que se parecen más bien a las células de este sincitio, que
forman un solo tejido de la Ciencia. En este libro nosotros tratamos de mostrar-
te cómo estudian a la Naturaleza las ciencias en su esfuerzo conjunto: la biolo-
gía y la química, la matemática y la física. Por eso, mientras eres joven, trata
de obtener una visión lo más amplia posible del mundo a tu alrededor. Noso-
tros te deseamos que todo te sea interesante, tal y como deben ser de interesan-
tes la psicología, la historia, la física, la biología, la lingüística. Nosotros consi-
deramos esto necesario no solo para cada cualquier futuro científico, sino para
cualquier persona.
Y, por nuestra parte, desearíamos que te sea tan interesante leer este libro,
como a nosotros nos fue escribirlo.
328

Fuentes de las ilustraciones

Luigi Galvani
https://es.wikipedia.org/wiki/Luigi_Galvani#/media/Archivo:Luigi_galvani.jpg
El experimento de Galvani
Fragmento del “Sobre las fuerzas de la electricidad durante el movimiento muscular”
(De viribus electricitatis in motu musculari commentarius)
https://archive.org/details/AloysiiGalvaniD00Galv/mode/2up
Alessandro Volta
https://es.wikipedia.org/wiki/Alessandro_Volta
Tratado de Galvani
https://archive.org/details/AloysiiGalvaniD00Galv/page/n3/mode/2up
Emil du-Bois Reymond
Finkelstein G. (2003) M. du Bois-Reymond goes to Paris. The British Journal for the
History of Science. 36(130 Pt3): 261-300.
https://www.researchgate.net/publication/9050683_M_du_Bois-Reymond_goes_to_Paris
La obra “Estudios sobre la electricidad animal” de du Bois-Reymond
(Untersuchungen Über Thierische Elektrizität)
https://books.google.es/books?
id=fojpdeZC0jsC&printsec=frontcover&source=gbs_ge_summary_r&cad=0#v=onepage
&q&f=false
Hermann von Helmholtz
https://www.loc.gov/resource/cph.3a42612/
Julius Bernstein
http://www.facmed.unam.mx/Libro-NeuroFisio/Personas/Bernstein/Bernstein.html
Ludimar Hermann
https://en.wikipedia.org/wiki/Ludimar_Hermann
El modelo de du Bois-Reymond
Finkelstein G. (2003) M. du Bois-Reymond goes to Paris. The British Journal for the
History of Science. 36(130 Pt3): 261-300.
https://www.researchgate.net/publication/9050683_M_du_Bois-Reymond_goes_to_Paris
Henri Dutrochet
Dominio público
Wilhelm Pfeffer
https://academictree.org/physiology/peopleinfo.php?pid=92067
Hugo de Vries
State Darwin Museum, Moscow, Russia
https://twitter.com/darwinmuseum/status/1248991100259504130
Jacobus van’t Hoff
https://es.wikipedia.org/wiki/Jacobus_Henricus_van_%27t_Hoff
Svante Arrhenius
http://100.astronomiska.se/48-svante-arrhenius-och-livets-utbredning-genom-
varldsrymden/
Walter Nernst
https://en.wikipedia.org/wiki/Walther_Nernst
Primer número de la “Revista de Fisicoquímica” (Zeitschrift für physikalische
Chemie) de Wilhelm Ostwald, publicado en 1887
https://www.eurobuch.com/buch/isbn/3321000237.html
Wilhelm Ostwald
https://es.m.wikipedia.org/wiki/Archivo:Wilhelm_Ostwald_by_Nicola_Perscheid.jpg
“La Electrobiología” (Elektrobiologie) de Julius Bernstein
https://www.biodiversitylibrary.org/item/16889#page/7/mode/1up
Alan Hodgkin
https://www.britannica.com/biography/Alan-Hodgkin
Andrew Huxley
https://www.nobelprize.org/prizes/medicine/1963/huxley/facts/
330

Contenido

Prefacio............................................................................................................1
Capítulo 1. El nacimiento de la Electrobiología............................................4
Exposición histórica....................................................................................5
Un poco acerca de Galvani..........................................................................6
¿Por qué Galvani tenía en su mesa un generador electrostático?.................7
La fisiología en la época de Galvani.........................................................12
El 26 de septiembre de 1786.....................................................................17
Volta revisa el descubrimiento de Galvani y lo descarta...........................23
La discusión entre los partidarios de Galvani y los partidarios de Volta. . .30
Sobre la historia de la electricidad “metálica” descubierta por Volta........33
La rehabilitación de Galvani.....................................................................34
Capítulo 2. Los primeros pasos de la electrobiología..................................38
Du Bois-Reymond y sus amigos...............................................................39
Los fenómenos básicos de la electrobiología: los biopotenciales..............44
La acción excitadora de la corriente eléctrica: du Bois-Reymond.............45
La acción excitadora de la corriente: los seguidores de du Bois................49
La velocidad de propagación de la excitación...........................................51
“La ola de excitación”...............................................................................54
Capítulo 3. Sobre cómo surge la diferencia de potenciales en una célula..58
¡Ah, qué jóvenes!......................................................................................59
Una sandía partida tiene semillas porque las podemos observar. Pero
¿tendrá semillas una sandía sin partir?......................................................60
De la ósmosis a la electricidad..................................................................63
¡Ya casi! ¡Ya casi!.....................................................................................68
Qué es el potencial de Nernst....................................................................69
El problema está resuelto..........................................................................72
La teoría de la membrana..........................................................................74
De regreso con Bernstein..........................................................................78
Las pruebas de la teoría de la membrana. ¿Qué hay en el interior de la
célula? ¿Qué hay en su exterior?...............................................................82
Sobre la utilidad de los microelectrodos defectuosos................................85
La membrana celular.................................................................................86
Los experimentos en la membrana “pura”: la teoría de la membrana canta
victoria......................................................................................................92
La teoría de la membrana requiere de un análisis más profundo...............93
Capítulo 4. Sobre cómo es que surge el impulso nervioso..........................96
La hipótesis del “orificio eléctrico”...........................................................96
“Aproximadamente igual”—¿pero un poco más o un poco menos?..........98
¡Cómo no se les ocurrió!.........................................................................100
De la hipótesis a la teoría........................................................................102
El modelo de Hodgkin y Huxley.............................................................108
¿Cuánta información cabe en cuatro ecuaciones?....................................113
Entonces ¿qué sigue?..............................................................................119
Capítulo 5. De las células a las moléculas..................................................120
El funcionamiento de las bombas iónicas................................................120
¿Qué otros tipos de bombas existen?.......................................................124
La bomba de protones.............................................................................125
¿Para qué necesitan el potencial de reposo las células no excitables?......126
¿Cómo utilizan los organismos sus bombas iónicas?..............................128
Los canales iónicos.................................................................................130
Capítulo 6. La transmisión de las señales en los organismos. El telégrafo
vivo.........................................................................................................138
La teoría de las “corrientes locales”........................................................140
Sobre la seguridad de la transmisión.......................................................145
La teoría del cable...................................................................................147
La resistencia de un cable infinito...........................................................150
La señal se debilita y se debilita cada vez más........................................153
El nervio—un cable infinito....................................................................155
La transmisión sin impulsos o el primer encuentro con la geometría......157
¡No nos olvidemos de la capacitancia!....................................................163
Mejor temprano que tarde, o la cuchara llega a tiempo, si es la hora de la
comida....................................................................................................164
¿De qué depende la velocidad del impulso nervioso?..............................168
La transmisión del impulso nervioso y el modelo de Hodgkin-Huxley...171
¿Y se podrá incrementar la velocidad?....................................................172
Nervios de acero con cuentas de vidrio...................................................175
332

¿Es siempre beneficioso un nervio mielinizado?.....................................179


Capítulo 7. Sobre cómo se comunican las células entre sí........................181
En la zona del contacto no hay una fusión, sino una ruptura...................183
¿Qué tipos de sinapsis existen? De nuevo la “gran discusión”................184
Las sinapsis eléctricas existen, pero no pueden existir............................187
Donde hay hambre no hay pan duro........................................................189
Un resultado negativo también es resultado............................................190
Las sinapsis químicas..............................................................................192
La liberación del neurotransmisor...........................................................193
El funcionamiento de la membrana postsináptica....................................196
¿Qué sinapsis son las mejores, las químicas o las eléctricas?..................198
La sinapsis química y la inhibición.........................................................200
Acerca de la magnitud de los potenciales sinápticos...............................202
Estructuras similares a las sinapsis..........................................................204
La neurona es una célula.........................................................................207
Capítulo 8. El segundo encuentro con la geometría. La geometría, la
electricidad, y las funciones..................................................................210
El misterio de las células del miocardio y la “aproximación geométrica”
................................................................................................................210
De la esfera y el cilindro.........................................................................213
¿Cuál es la conclusión? Los primeros ejemplos de la influencia de la
geometría en la función...........................................................................217
El filamento nervioso se ensancha, se estrecha, se ramifica y se termina 219
Para qué las neuronas necesitan dendritas y para qué las dendritas necesitan
espigas....................................................................................................225
La rectificación geométrica.....................................................................229
La solución al misterio del corazón.........................................................231
Unidimensional, bidimensional, tridimensional......................................235
Capítulo 9. Acerca del mosaico de canales y neuronas, y sobre cómo la
“electricidad animal” se utilizan para resolver importantes problemas
.................................................................................................................241
¿Cómo funciona una neurona común?....................................................241
Cómo cierra sus alas una mariposa..........................................................243
¿Cómo nada una sanguijuela?.................................................................245
Baterías de neuronas...............................................................................248
La codificación por frecuencia (por tasa de disparos) y las neuronas sin
impulsos..................................................................................................251
Células-generadores y mosaicos de canales............................................253
Neuronas híbridas...................................................................................256
Hablemos acerca del corazón..................................................................258
Un caso raro de cuando la igualdad es beneficiosa..................................261
De la teoría a la práctica..........................................................................263
Un poco acerca del proceso de respiración..............................................265
Capítulo 10. Las ventanas al mundo..........................................................266
Los fotoreceptores...................................................................................268
Los electroreceptores. Sobre cómo los tiburones utilizan la ley de Ohm y la
teoría de la probabilidad..........................................................................274
La lucha contra el ruido...........................................................................280
Capítulo 11. Maestro de todos los oficios...................................................285
Las armas y los localizadores eléctricos..................................................285
¿Cómo atrapar a un pez en el agua turbia? Y un poco acerca de las
conversaciones eléctricas........................................................................290
¿Qué son un ECG, un EMG, un EEG?....................................................292
La granjita eléctrica de los infusorios......................................................297
Un poco acerca de las estaciones eléctricas de las células y de las bacterias
—las primeras electricistas de la Tierra...................................................305
Las bacterias—las primeras electricistas de nuestro planeta. Ellas
inventaron el motor eléctrico, la transmisión eléctrica a través de cables y
las baterías eléctricas...............................................................................313
Cómo es que el inquilino se convierte en estación eléctrica....................318
La electricidad y los reflejos condicionados............................................319
Nadie puede saberlo todo........................................................................322
¡Más, más, y aún más!.............................................................................324
Epílogo.........................................................................................................327
Fuentes de las ilustraciones.........................................................................328

También podría gustarte