Está en la página 1de 162

Introducción a la Biofísica

Métodos eléctricos y ópticos

Enrico Nasi

©Enrico Nasi , 2010-21


Prefacio
Estas Notas se escribieron con un doble propósito: por un lado se pretendía llenar una
serie de lagunas que para muchos estudiantes de ciencias naturales dificultan el
estudio de fenómenos de relevancia biológica desde una perspectiva física y
cuantitativa; un manejo de este acercamiento es fundamental para aquellos que
contemplan abordar la investigación en una variada gama de temas. Por otra parte,
una porción muy considerable del material también hace parte del bagaje de
conceptos que estudiantes de Medicina habrían de poseer, tanto para mejor asimilar la
enseñanza posterior del funcionamiento del organismo, como para entender las bases
sobre las cuales operan diversas tecnologías médicas de uso cada vez más frecuente.
La escogencia de los temas, por lo tanto, tiene dos orígenes, ambos surgidos de la
experiencia docente del autor en la Universidad Nacional de Colombia (sede Bogotá):
(i) Su participación en cursos de Física Medica para estudiantes de primer año de
Medicina, en los cuales se hizo evidente la brecha que separa la forma tradicional de
enseñar principios de óptica y electricidad, y la apreciación de su relevancia a la bio-
medicina. (ii) Cursos de Biofísica Celular y Biofísica de Membranas que el autor creó y
ofertó a estudiantes de post-grado y estudiantes avanzados de pre-grado de distinta
formación (Biología, Física, Química, Medicina, e Ingeniería). Desde los primeros
intentos quedó claro que para lograr una buena asimilación de ese material hacía falta
fortalecer primero las bases, lo cual llevó a la creación de un curso que fungiera de
pre-requisito. Los obstáculos que éste pretende superar conciernen, en primer lugar,
deficiencias en el manejo conceptual de algunos principios de física básica; no me
refiero a repetir fórmulas aprendidas de memoria y reemplazar valores para obtener,
con la ayuda de una calculadora, resultados que son numéricamente correctos (a
veces!). Me refiero a poder analizar una situación y realmente extraer un
entendimiento – llamémoslo ‘intuitivo’ – de cuales son los determinantes que juegan un
papel importante y como repercuten sobre el fenómeno bajo estudio. Esta
comprensión debería encontrar un desemboque natural, estableciendo un nexo claro
entre ciertos fundamentos de la física y su aplicación a problemas bio-médicos. En
segundo lugar, también se quisiera contribuir a derribar la barrera conceptual que
rodea el funcionamiento de instrumentos esenciales en el laboratorio de
experimentación, así como en la práctica clínica, y que a menudo resulta en un uso
incorrecto de la tecnología o una interpretación falaz de los datos que arroja. A la luz
de estas consideraciones, el contenido y la secuencia de tópicos en este texto no
siguen los esquemas tradicionales de los cursos de física para biólogos y médicos: los
dos módulos (que se focalizan en electricidad y óptica, respectivamente), empiezan
tratando algunos principios físicos fundamentales, pero rápidamente imparten un
sesgo hacia un contexto biológico o bio-médico, incluyendo los fundamentos que
subyacen algunas técnicas y acercamientos analíticos. No se pretende entrar a tratar
directamente los numerosos temas de la biofísica propiamente dicha; solo se busca
establecer las bases conceptuales y la comprensión de tecnologías pertinentes, que
faciliten posteriormente emprender el estudio de fenómenos fisiológicos desde un
ángulo mecanístico y cuantitativo.
CONTENIDOS:

I. MÓDULO DE BIOELECTRICIDAD

1. Introducción
2. Elementos básico de electricidad
• El concepto de carga eléctrica
- Introducción histórica.
- Cuantificación de la carga
- La ley de Coulomb
- El principio de superposición
- Carga elemental
- Relación con la estructura de la materia
• El campo eléctrico
• Potencial eléctrico
• Corriente eléctrica
3. Resistencia
• Aislantes y conductores
• La ley de Ohm
• Combinación de resistencias en serie y en paralelo
• Leyes de Kirkhoff
• Potencia
4. Capacitancia
• El condensador
• Combinación de condensadores en serie y en paralelo
• Corriente capacitativa
• Filtros
5. Impedancia

6. Medios electrolíticos
• Dipolos eléctricos, solventes polares, coeficiente dieléctrico
• Clarificación de las diferencias entre conducción en metales y electrolitos
• Propiedades dieléctricas del agua
• Aislantes en sistemas electrolíticos
• Potenciales electroquímicos
7. Electroforesis
• Separación de moléculas
• Micro-ionoforesis
8. Mediciones bio-eléctricas e instrumentación
• Medición de voltaje
• Medición y de corriente
• Amplificación
• Amplificadores operacionales
• Mediciones eléctricas en células
• Principios de registro eléctrico extracelular
• El osciloscopio
9. Ruido eléctrico
• Fuentes de ruido
• Reducción de ruido por filtros de frecuencias
• Reducción de ruido por promedio de ensamble

1
10. Transductores
• Fuerza
• Ondas acústicas
• Temperatura
• Luz
• Radiación ionizante
• Concentraciones químicas

11. Adquisición computerizada de datos.


• Rango dinámico
• Frecuencia de muestreo
12. Análisis de sistemas lineales
• Definición de sistema lineal
• Función de transferencia
• Análisis en el dominio de frecuencia
• Análisis en el dominio temporal

13. Análisis de fluctuaciones


• Extracción de la amplitud de los eventos elementales
• Determinación de la cinética de los eventos elementales

II. MÓDULO DE ÓPTICA

1. Introducción
• Naturaleza de la luz
- Teoría corpuscular
- Teoría ondulatoria
• Polarización
• Espectro electromagnético
• Luz visible

2. Cuantificación de la luz
• Escalas radiométricas
• Escalas fotométricas

3. Absorción de la luz
• Efectos de la luz absorbida
- Mediciones bolométricas.
- Detección fotoquímica
- Efecto fotoeléctrico

4. Óptica geométrica
• Reflexión
- El principio de distancia mínima
- Formación de imágenes por espejos curvos
• Refracción
- Principio de Fermat de tiempo mínimo
- Refracción y el principio de Huygens
• Lentes
- Imágenes virtuales
- Dioptrías
- Profundidad de campo

2
- Aberración esférica
- Aberración cromática
- Falencias de la Óptica Geométrica: el límite de difracción
- Sistemas ópticos complejos
• Reflexión total interna y sus aplicaciones
- Fibras ópticas
- Aplicaciones a endoscopia

5. Fluorescencia
• Fenómeno básico
• Espectros de excitación y de absorción
• Aplicaciones de la fluorescencia: marcaje de moléculas
• Uso de fluorescencia para monitorear funciones celulares
• Seguimiento óptico de cambios de voltaje
• FRET

6. Elementos de microscopia
• Diseño básico de un microscopio
- Tren óptico de la imagen
- Tren óptico del iluminador
• Objetivos de inmersión
• Aumento de contraste
- Contraste de interferencia diferencial
- Microscopía de contraste de fase
- Microscopía de campo oscuro
• Microscopía de fluorescencia
- Microscopía confocal
- Microscopía multifotónica
- Microscopía de fluorescencia con reflexión interna total (TIRF)
- Superando el límite de difracción: microscopia de reconstrucción
estocástica
7. Imágenes digitales
- Acoplamiento microscopio-cámara
- Resolución espacial
- Profundidad de pixel
- Tamaño de archivo y compresión
- Histograma de intensidad
- Manipulaciones de brillantez y contraste
- Filtros espaciales
8. El láser
- Aplicaciones del láser: (i) pinzas y trampas ópticas
- Aplicaciones del láser: (ii) cirugía y micro-cirugía

9. Óptica fisiológica
- El ojo de los vertebrados
- Acomodación
- Resolución óptica del ojo
(i) Limitaciones debidas al sistema dióptrico
(ii) Limitaciones ópticas debidas al mosaico retinal
- Defectos de visión
- Visión cromática
- Visión de luz polarizada

3
Módulo 1: Electricidad
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

1. Introducción

En esta sección se revisarán algunos conceptos básicos relacionados con fenómenos


eléctricos. Hay dos razones fundamentales por las cuales es relevante hacer un repaso de
física de la electricidad para el estudio de la biología y la bio-medicina:

(i) En primer lugar, la electricidad está intrínsecamente vinculada a los procesos


biológicos: de hecho constituye el lenguaje utilizado por el organismo para un
sinnúmero de funciones. Basta mencionar la capacidad de recibir estímulos
externos, los cuales son convertidos en cambios en el voltaje a través de la
membrana celular; la transmisión rápida de mensajes, que consiste en propagación
activa de impulsos eléctricos; la comunicación intercelular, la sincronización y
coordinación de funciones celulares, y la iniciación de la actividad de efectores
(secreción, motilidad), etc. Todos estos eventos implican fenómenos eléctricos y son
esenciales al funcionamiento de todo organismo complejo. No solamente las células
generan eventos eléctricos, sino que varios de los mecanismos moleculares que
subyacen estas funciones son a su vez susceptibles a la influencia de fuerzas
eléctricas, y son controlados por ellas. De esta manera, es ineludible que para
comprender la fisiología de una célula o de un órgano se requiere un conocimiento
de los aspectos eléctricos.
(ii) En segundo lugar, la tecnología que se ha desarrollado con base en la electricidad
proporciona unas herramientas sumamente útiles tanto para la investigación
biológica como para la medicina. El monitoreo de funciones del organismo puede
beneficiarse de mediciones eléctricas, que proporcionan no solamente un registro en
tiempo real del funcionamiento de un ensamble multicelular, o un órgano entero (por
ejemplo, el electrocardiograma, el electroencefalograma, el electromiograma, el
electroretinograma etc.), sino aportan también importantes criterios diagnósticos en
caso de disfunciones o patologías. Otras técnicas de registro eléctrico permiten
monitorear células individuales, e inclusive la función de moléculas individuales;
avances en la bio-medicina moderna han podido atribuir ciertos estados patológicos
a disfunciones de moléculas específicas, y, en conjunción con análisis genético,
identificar las mutaciones responsables. Paralelamente, debido a que células y
tejidos son susceptibles de ser estimulados eléctricamente, este acercamiento
también proporciona una forma de controlar funciones biológicas para su estudio, o
corregir anomalías (el ejemplo más conocido es el marcapasos). Así que un
entendimiento de principios eléctricos también es útil para el manejo de
instrumentación de uso corriente en el laboratorio de investigación biológica, o los
engendros más modernos en la frontera de la biomedicina.

Aunque se revisarán principios generales importantes de electricidad, los contenidos


estarán sesgados hacia temas relevantes a la biomedicina, y divergirán por lo tanto de la
secuencia de tópicos que aparece en programas tradicionales.

4
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

2. Elementos básicos de electricidad


• El concepto de carga eléctrica
Introducción histórica. La noción de carga constituye la médula de la electricidad, y todos los
demás conceptos y leyes fundamentales en este campo tienen que ver con la manera como las
cargas están distribuidas en el espacio, cómo se mueven, las fuerzas que ejercen, etc.
Irónicamente, aunque hemos aprendido mucho sobre cómo se comportan las cargas eléctricas,
realmente sabemos poco o nada acerca de lo que son. Históricamente, el concepto de carga
electrostática es muy antiguo, originándose desde los tiempos de la antigua Grecia, cuando se
observaron interacciones entre ciertos materiales
(como el ámbar) que habían sido sometidos a fricción.
Del hecho de que un trozo de ámbar frotado contra un
paño (es decir, ‘cargado’) atrae ciertos materiales
pero repele otros, se dedujo que esta energía de
interacción tiene dos polaridades: positiva y negativa.
Además, dos trozos idénticos de material cargado
siempre se repelen, con lo cual se pudo concluir que
cargas del mismo signo se repelen (Figura 2.1 (i)),
mientras que cargas de signo opuesto se atraen Figura 2.1
(Figura 2.1 (ii)).

Cuantificación de la carga. La fuerza de interacción entre dos cuerpos cargados eléctricamente


sirve como base para definir una unidad de medida para la carga. Por ejemplo, la unidad esu
(unidades electrostáticas – ‘electro-static units’) se define de la siguiente manera: dos cargas
de 1 esu se repelen con una fuerza de una dina si se encuentran a 1 cm de distancia (sistema
CGS: cm, g, s; una dina es la fuerza que, actuando sobre una masa de 1 gramo, le causaría
una aceleración de 1 cm/s2). Frecuentemente (en fisiología especialmente) se usa en cambio el
Coulomb (sistema MKS: m, kg, s), el cual corresponde a 2.998×109 esu.
La ley de Coulomb. Midiendo la manera como cambia la intensidad de la interacción
electroestática entre dos cuerpos (idealmente puntuales) en función de sus respectivas cargas
y de la distancia que los separa, se determinó que la fuerza (atractiva o repulsiva) es
directamente proporcional al producto de las cargas e inversamente proporcional al cuadrado
de la distancia entre ellas:
F =kq1q2ř/r2
(F es la fuerza – un vector - q denota las cargas, r la distancia, ř un vector unitario orientado
con la línea imaginaria que une las dos cargas; k es la constante de proporcionalidad, que
depende, entre otras cosas, de las unidades de medida que uno adopte para las distintas
variables). Esta ley constituye el fundamento de la electroestática.
El principio de superposición. Rara vez, o nunca, uno se enfrenta a una situación en la cual
sólo se tienen dos cargas y su interacción mutua es la única relevante. Lo normal es que se
tenga una gran cantidad de cargas distribuidas en el espacio, en cuyo caso uno esperaría que
cada una interactuara atractiva- o repulsivamente con todas las demás. Esto podría prestarse a
engendrar una situación de gran complejidad si se quisiera determinar cuáles son las
resultantes netas de todas esas fuerzas, es decir, cuál es el vector de fuerza que en últimas
actúa sobre cada una de las cargas. Afortunadamente, se pudo establecer que con sólo
averiguar por separado la interacción de una carga con cada una de las demás y sumar todas
esas fuerzas, uno puede saber la respuesta. Esto parece obvio, pero en realidad no es para
nada trivial, y las consecuencias de este hecho son trascendentes: hubiera podido darse el

5
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

caso, por ejemplo, de que la


presencia de múltiples
elementos los hiciera
interactuar de alguna
manera complicada (no-
lineal), que no fuera una
simple suma, y nos
enfrentaríamos entonces a
un problema tal vez
Figura 2.2 insoluble, ya que en un
sistema dado la introducción
de cada nuevo elemento alteraría por completo las reglas del juego. Afortunadamente no es
así, y podemos descomponer el juego total de fuerzas en un conjunto de elementos aditivos.
Podemos formalizar esta conclusión enunciándola de la siguiente manera: la fuerza con la cual
dos cargas interactúan (ejemplo Figura 2.2 (i)) no es alterada por la presencia de una tercera
carga: ésta simplemente agrega un componente ulterior al juego de fuerzas ya presentes
(Figura 2.2). (ii) Se puede por lo tanto deducir la fuerza total ejercida sobre una carga particular
en un sistema complejo: sencillamente se suman una por una las fuerzas debidas a la
interacción con cada una de las demás cargas, individualmente. El panel (iii) de la Figura 2.2
muestra como la resultante (flecha azul) de las fuerzas experimentadas por una carga particular
se puede inferir aplicando la ley del paralelogramo a los dos vectores que representan las
fuerzas individuales de interacción entre dicha carga y las demás cargas del sistema.

• Campo eléctrico y potencial


El campo eléctrico. Ahora extendamos esta visión, tratando de vislumbrar el ‘mapa’ de fuerzas
eléctricas que puede existir en un dominio del espacio como consecuencia de la presencia de
cargas. Como punto de partida, consideremos el caso más simple, el de una sola carga q0, y
coloquémosla por conveniencia en el origen del sistema de coordenadas de nuestro espacio de
3 dimensiones (0,0,0). Por supuesto, mientras q0 sea la única carga en nuestro sistema, no
podemos detectar ninguna fuerza; pero sabemos que tiene potencialmente la capacidad de
interactuar con otras. De hecho, si añadiéramos otra carga de magnitud arbitraria, q1, en un
punto cualquiera del espacio (con coordenadas x1, y1, z1), la fuerza de interacción sería, según
la ley de Coulomb, F= q1qoř/r2; es decir, esta fuerza es el resultado de multiplicar la carga de
prueba, q1, con el componente q0ř/r2. Este ultimo, por lo tanto, es un vector que define la
influencia que una carga arbitraria experimentaría si se colocara en la posición (x1,y1,z1), y no
depende de la magnitud ni de la polaridad de la carga de prueba, solo de su posición. Como lo
mismo se puede aplicar a cualquier otro punto del espacio, se trata de un campo vectorial, es
decir, una función E(x,y,z) que asocia a cada punto del espacio un vector, y se llama el campo
eléctrico. En este caso particular, en el cual el campo es producido por la presencia de una sola
carga, q0, colocada en el origen de
nuestro sistema de coordenadas, el
vector del campo en cada punto es:
E(x,y,z) = q0ř/(x2+y2+z2)
[la distancia entre un punto y el
origen se deduce aplicando
simplemente el Teorema de
Pitágoras]. Claramente, aquí
tenemos un campo simétrico
alrededor de la carga, cuya Figura 2.3

6
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

intensidad se debilita a medida que uno se aleja de ella (decrece con el cuadrado de la
distancia). La Figura 2.3 ilustra esta situación, para el caso tanto de una carga positiva (Panel
A) o negativa (B). Ahora consideremos una situación más general: teniendo un sistema de N
cargas discretas, si consideramos la fuerza total que experimentaría una carga ‘de prueba’, qx,
ubicada en un punto arbitrario del dominio espacial, ésta sería la suma de todas las fuerzas
ejercidas por todas las cargas del sistema, i.e.:
F=∑qxqiř/r2
Puesto que qx no depende del índice de sumación, i, se puede extraer de la sumatoria,
obteniendo F=qx∑qiř/r2. De nuevo, el termino contenido en la sumatoria es el campo eléctrico, y
podemos visualizarlo como un conjunto de flechas, una para cada punto del espacio, cuya
orientación y longitud indican la dirección y la intensidad, respectivamente, de la fuerza que se
experimentaría en ese punto (Figura 2.5A). Para determinar la fuerza ejercida sobre una carga
en algún punto de un dominio del espacio en el cual existe un campo eléctrico, sólo hace falta
multiplicar el valor de dicha carga por el campo local.

Potencial eléctrico y su relación al campo. Si en un dominio dado del espacio hay un campo
eléctrico no nulo, debe ser que existe una distribución no-homogénea de cargas: de lo
contrario, si éstas estuvieran uniformemente esparcidas en todas partes, en cualquier punto las
varias fuerzas se anularían mutuamente. En cambio, si se congrega en alguna región un
exceso de carga de una polaridad respecto a otra región, se engendran fuerzas netas: una
carga de prueba experimentaría una atracción hacia una dirección y repulsión hacia la dirección
opuesta. Toda situación en la cual ocurre algún evento eléctrico ‘interesante’ involucra una
distribución asimétrica de cargas en el espacio y/o un re-arreglo de las mismas. Si intentáramos
desplazar una carga de un punto a otro del dominio en el
cual existe un campo eléctrico, podríamos vernos favorecidos
o impedidos, según la trayectoria del movimiento con
respecto a la dirección del campo. Consideremos primero el
caso sencillo de un desplazamiento rectilíneo muy pequeño,
tal que en esa región el campo eléctrico se puede considerar
uniforme; la línea de desplazamiento forma un ángulo θ con
el vector E. Para determinar la influencia del campo sobre el
desplazamiento tenemos que determinar el componente de E
alineado con esa dirección; para ello, efectuamos una
operación denominada ‘producto punto’ entre el vector del Figura 2.4
campo eléctrico, y un vector de tamaño unitario, llamémoslo
S, en la dirección del movimiento; esta operación se define como el producto de las magnitudes
de los dos vectores, multiplicado a su vez por el coseno del ángulo entre sus respectivas
direcciones (Figura 2.4). Se trata simplemente de la magnitud de la proyección del vector del
campo sobre la línea del desplazamiento local (notar que el resultado es un valor escalar, i.e.
un simple número, sin dirección). Si las dos direcciones fueran ortogonales (90°), este valor
sería cero (la proyección es nula, siendo cos(90°) = 0); esto quiere decir que en ese punto la
fuerza ni ayuda ni impide el movimiento. Si, en el extremo opuesto, los dos vectores fueran
perfectamente co-lineales, el 100% de la fuerza bien sea ayudaría o se opondría al movimiento
(dependiendo del sentido de las dos flechas). En los casos intermedios, habrá un componente
del vector fuerza que coincide con la dirección del movimiento. En resumen, es como tomar el
vector fuerza, usar la regla del paralelogramo para descomponerlo en dos componentes
ortogonales, uno de los cuales esté alineado con el eje del movimiento, y solamente tomar en
cuenta la magnitud de éste último. Si el resultado no es nulo, la presencia del campo afectó el
movimiento, y diríamos entonces que existe una diferencia de potencial entre esos dos puntos.

7
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

Figura 2.5
Tratemos de extender esta visión a un caso más general, en el cual el desplazamiento se lleva
a cabo en un dominio en el cual el campo eléctrico sufre cambios en dirección y/o magnitud,
como ilustra la Figura 2.5A; el recorrido de un punto inicial P1 a un punto final P2 debe tener en
consideración estas variaciones (Figura 2.5B), y es preciso subdividir el trayecto en tramos lo
suficientemente pequeños para que el campo permanezca razonablemente constante en cada
uno de ellos, y efectuar el mismo cómputo individualmente (Figura 2.4C). Para una carga
unitaria el trabajo (eléctrico) realizado sería el producto punto de cada elemento de
desplazamiento, Si con el componente local del campo que esté orientado en la dirección del
desplazamiento (flechas azules en el panel C) y sumado a lo largo de todo el recorrido
efectuado (análogo a la definición de trabajo mecánico, que es fuerza×desplazamiento, sólo
que en electricidad se trata de carga×potencial). La diferencia de potencial entre el punto de
partida y el punto de llegada se reflejará en el resultado final, designémoslo como φ2,1, que nos
dice si, haciendo el balance de los tramos favorables y los desfavorables, al final de cuentas el
viaje entre el punto P1 y el punto P2 requirió algún esfuerzo o si fue, globalmente, ‘cuesta
abajo’. Formalmente, esto se representa como:
φ2,1 = ∑Ei ⋅ Si
Más correctamente, si el campo eléctrico cambiara de una manera continua en diferentes
regiones del espacio, habría que partir el recorrido en elementos incrementales infinitamente
pequeños (dS), multiplicarlos puntualmente con E en cada sitio del trayecto, y sumar los
resultados, lo cual define una integral:
∫ E ⋅ dS
De nuevo, el resultado es un número escalar. Para ciertos tipos de campos vectoriales,
llamados conservativos, este resultado es independiente del recorrido que se haga entre los
dos puntos; por lo tanto, debido a que se trata de un número que define de una manera única el
trabajo requerido para desplazar una carga unitaria de un cierto punto a otro, sin importar por
cuál ruta, eso define la diferencia de potencial eléctrico entre esos dos puntos. Esta condición
se cumple, por ejemplo, con un campo eléctrico estacionario. El potencial eléctrico se mide en
las unidades de statvoltios (sistema de unidades CGS) o Voltios (sistema de unidades MKS);
un statvoltio ≈ 300 V. También podemos tomar uno de los dos puntos como un punto de
referencia fijo, y establecer el potencial en cada punto del espacio respecto a dicha referencia.
Se suele tomar una referencia ideal ubicada infinitamente lejos, y el valor de este campo
escalar en cada otro punto del espacio es el trabajo realizado para desplazar una carga unitaria
desde el infinito hasta el punto dado. Se llama el potencial. Existe una relación entre el campo

8
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

eléctrico y el potencial: el campo eléctrico en cada punto está dado por la magnitud de cambio
del potencial por unidad de desplazamiento, en la dirección en que cambia más abruptamente.
Este se llama el gradiente del campo escalar, que en este caso es el potencial. Notar la
diferencia entre los dos conceptos: dos pares de puntos en el espacio pueden diferir de la
misma cantidad en cuanto a potencial eléctrico (es decir en ambas casos para ir de un punto al
otro el trabajo sería el mismo), sin embargo el campo en un caso puede ser mucho mayor que
en el otro si la distancia es más corta; puesto que el campo define las fuerzas ejercidas,
situaciones en las cuales existe un cambio de potencial sobre una distancia diminuta (i.e. un
campo eléctrico muy fuerte) implican enormes fuerzas sobre cualquier partícula cargada que
allí se encuentre. Un ejemplo que viene al caso en la biología es la membrana celular, a través
de la cual existe una diferencia de potencial eléctrico del orden de 0.1 V (redondeando); pero
considerando que su espesor es inferior a 10 nm (una centi-milésima de milímetro), el campo
eléctrico que resulta es enorme, algo como 100 mil voltios por centímetro! Quiere decir que si
una molécula tiene regiones con una carga eléctrica y se encuentra localizada en una
membrana biológica, estos grupos estarán sometidos a fuerzas muy considerables. Si, además
el potencial a través de la membrana celular cambiara en un momento dado, el campo de
fuerza también cambiaría, y podría inducir una alteración en la conformación de la molécula.
Este principio, como se examinará más tarde, es responsable por la capacidad de ciertas
células (neuronas y fibras musculares, por ejemplo) de ser activadas eléctricamente.

Carga elemental. Es natural preguntarse si la escala de medida de la carga es continua, es


decir, si el tamaño de una carga puede adquirir cualquier valor, incluyendo ser arbitrariamente
pequeña. Un experimento clásico llevado a cabo por Robert Millikan (1909) estableció que eso
no es así: existe un tamaño mínimo para las cargas eléctricas. En ese histórico experimento se
introdujeron diminutas gotas de aceite cargadas
eléctricamente (por la fricción al salir del atomizador
mismo, o usando una fuente radioactiva que las
ionizara) en una cámara; éstas tendían a caer bajo
el efecto de la gravedad, pero simultáneamente se
aplicó un campo eléctrico vertical producido por un
generador variable de voltaje (V; Figura 2.6).
Debido a la carga eléctrica en las distintas gotas,
este campo necesariamente contribuye una fuerza
adicional que altera el movimiento. Al examinar
como se desplazaban las microscópicas gotas, se
observó que la intensidad del campo eléctrico
necesaria para contrarrestar la caída por gravedad
Figura 2.6
(g) tenía valores discretos: para cada gota era
siempre el múltiplo de un valor mínimo, como si en cada instancia la carga en una gota de
aceite siempre fuese un múltiplo de una unidad de carga elemental. Distintos acercamientos
experimentales a lo largo de décadas siempre han llevado a esa misma conclusión: la carga
eléctrica invariablemente tiene una magnitud que es múltiplo de algún ‘paquete’ elemental.
Relación con la estructura de la materia. La naturaleza cuántica de la carga eléctrica encontró
un eco natural en la manera como está organizada la estructura de la materia a nivel
microscópico. Los átomos están constituidos por un núcleo formado por protones
(positivamente cargados), alrededor del cual orbitan electrones (negativamente cargados).
Aunque la polaridad de la carga de las dos partículas elementales es opuesta, su magnitud es
idéntica. Este valor representa la unidad fundamental de la carga eléctrica, llamada carga
elemental, que corresponde a 1.6×10-19 Coulomb y se suele representar como qe.

9
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

Corriente eléctrica. Una carga tiende a ser atraída por una región cuyo potencial eléctrico es de
la polaridad opuesta. Por lo tanto si existe una diferencia de potencial entre dos puntos y
existen cargas que puedan moverse libremente, éstas tenderán a fluir. Si llamamos la rata de
desplazamiento de carga corriente, simbolizada por la letra I, esta se medirá en
Coulombs/segundo, lo cual define la unidad fundamental de medida de corriente, el Amperio
(simbolizado por la letra A; 1 A = 1 Coul/seg). La corriente eléctrica implica una re-distribución
de cargas, y por lo tanto está estrechamente asociada con la generación de cambios de
potencial.

Al considerar corrientes eléctricas a menudo surge una confusión relacionada con la velocidad,
v, de desplazamiento de las cargas. Para averiguarla, no es suficiente conocer el amperaje.
Haciendo una analogía hidráulica, al saber que por un tubo fluye 1 litro/min no se puede
concluir nada acerca de la velocidad de las moléculas de agua: podría tratarse de un tubo de
gran diámetro, con lo cual un flujo lento fácilmente
alcanza 1 l/min, o de un tubo delgado, por el cual se
requiere una gran velocidad para lograr el mismo
caudal. Es necesario entonces conocer la densidad
de corriente, es decir, la cantidad de corriente que
fluye por unidad de área (amperios/cm2, i.e. Coul×s-
1
×cm-2). Consideremos la situación simplificada de un
dominio del espacio en el cual hay N cargas por cm3
moviéndose en la misma dirección con una velocidad
v (cm/s), y calculemos cuántas cargas cruzarían una
‘ventana’ cuadrada de superficie de área A (cm2)
colocada perpendicular a la dirección del flujo, en un Figura 2.7
intervalo Δt. Las cargas que lo logran son aquellas
que al comienzo del intervalo están ubicadas en el paralelepípedo que tiene longitud lateral vΔt
(ver Figura 2.7), y que por lo tanto en el intervalo prescrito podrán recorrer por lo menos la
distancia que las separa de la ventana. El volumen de dicho paralelepípedo es AvΔt, y el
número de cargas contenido será por lo tanto NAvΔt. Por consiguiente, la densidad de corriente
resulta ser:
J = qNvΔtA/AΔt = qNv
De esta relación se desprende que v = J/qN. Es importante destacar que para una dada
densidad de carga, la corriente es proporcional a la velocidad de desplazamiento de las cargas.
Otro asunto relacionado concierne la velocidad de las interacciones eléctricas: si se aplica un
potencial al terminal de un cable, la corriente al otro extremo empieza a fluir prácticamente de
una manera instantánea, inclusive para distancias enormes; más aún, la minúscula latencia es
independiente de la magnitud de la corriente. Evidentemente no puede tratarse de un reflejo de
la velocidad de movimiento de las cargas mismas, considerada en el párrafo anterior. Lo que
ocurre es el movimiento de una carga desplaza una carga vecina, que a su vez desplaza la
siguiente, y así sucesivamente; de esta manera, aunque cada carga se mueva lentamente, al
iniciarse el proceso, la movilización de toda una columna de cargas se propaga de una forma
extremadamente rápida (de hecho, con la velocidad de la luz). Una analogía que ayuda a
visualizarlo es un tubo lleno de canicas; si se añade una canica adicional, ésta desplazará la
que se encontraba en ese extremo del tubo, la cual a su vez empujará la siguiente, etc., con el
resultado que casi instantáneamente una canica emergerá del otro extremo del tubo: la ola de
interacciones se propaga de una manera extremadamente rápida, pero cada canica individual
no ha de moverse velozmente.

10
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

3. Resistencia

• Aislantes y conductores. Ahora consideremos los determinantes de la posibilidad de


mover cargas a través de algún dominio espacial. En sólidos, la matriz de la materia es
inmóvil, mantenida por enlaces atómicos en una estructura fija. Por lo tanto, la
posibilidad de translocar carga depende de la movilidad de partículas sub-atómicas,
electrones en los orbitales externos que están libres de desprenderse de sus
respectivos núcleos (la ‘banda de conducción’), de tal manera que puedan saltar de
posición en posición, bajo la influencia de un voltaje. Materiales que cumplan con esta
propiedad se denominan conductores (el cobre, por ejemplo), y este tipo de conducción
se llama conducción electrónica, Por otra parte, materiales en los cuales los electrones
no se prestan a desplazarse entre distintos átomos funcionan como aislantes (plástico,
vidrio, etc.). La posibilidad de que una carga pueda desplazarse por un material no es
del todo-o-nada, sino hay un continuo de gradaciones: distintos materiales difieren
cuantitativamente en la facilidad con la cual un electrón puede desprenderse de su
respectivo núcleo para ir a ocupar otra posición. Esta propiedad intrínseca de cada
material se denomina resistividad (usualmente indicada por la letra ρ). No hay que
confundir la resistividad de un material con la resistencia entre dos puntos; lo primero,
como ya se ha dicho, es una característica del medio y su composición, lo segundo
depende también de factores geométricos. En un cable, por ejemplo, habría que
considerar no solamente el material, sino también la longitud, y el grosor,
respectivamente. La unidad de medida de la resistencia es el Ohm, simbolizado por la
letra Ω, definida de la siguiente manera: si entre dos puntos hay una resistencia de 1 Ω,
entonces al aplicar un voltaje de 1 V fluirá una corriente de 1 A. Si se tiene un elemento
homogéneo con una geometría ‘regular’, tal como un paralelepípedo o un cilindro,
entonces la resistencia entre dos caras opuestas crecerá proporcionalmente a la
distancia entre ellas, es decir la longitud del sólido, y será inversamente proporcional al
área de sección transversal:
R = ρ⋅L/A
Estas consideraciones son intuitivamente obvias: haciendo una analogía, entre más
largo el camino, mayor el impedimento total, mientras que entre más ancho, más fácil el
tránsito. Puesto que la longitud (en el numerador de la expresión) tiene dimensiones de
cm (en el sistema CGS) y el área tiene dimensiones de cm2, es imprescindible que la
resistividad, ρ, tenga como unidades Ω⋅cm para que el resultado final se mida en
unidades de Ω. Consideremos un cable de diámetro d, longitud L, y resistividad ρ. La
resistencia entre sus dos extremos será:
ρ⋅L/[(d/2)2⋅π] = 4⋅π⋅ρ⋅L/d2
Supongamos que el cable en cuestión tuviera 5 metros de longitud y 3 mm de diámetro
(i.e. 3×10-3 m) y fuera de cobre; la resistividad del cobre es aproximadamente 1.68×10-8
Ω⋅m. El área de sección del cable es 2.25×10-6×3.14 m2 (≈ 7.1×10-6 m2), y por lo tanto la
resistencia de ese tramo de cable será 1.68×10-8 ×5 / 7.1×10-6 = 1.18×10-2 Ω.

• Corriente eléctrica y la ley de Ohm. La magnitud de un flujo de cargas será más grande
entre mayor la diferencia de potencial entre los dos puntos (voltaje), y entre menos difícil
el movimiento de las cargas en el material examinado; la relación cuantitativa entre
voltaje (diferencia de potencial eléctrico), resistencia, y corriente está dada por la ley de
Ohm:

11
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

I=V/R
La misma ley se puede expresar despejando bien sea V (V=I×R) o R (R=V/I). A veces, en lugar
de una medida de la dificultad que enfrenta un flujo de carga, i.e. la resistencia, se habla de la
facilidad, i.e. su recíproco, llamada conductancia, que se representa con la letra g y se mide en
Siemens (S; 1 S = 1/Ω). En este caso podríamos escribir la ley de Ohm como I = V×g. Hay un
aspecto de la ley de Ohm que requiere alguna explicación adicional. El campo eléctrico
determina la fuerza que impulsa el movimiento de las cargas. Si el voltaje se mantiene
constante, la ley de Ohm establece que la corriente también será constante (I=V/R), lo cual, de
acuerdo con lo que se explicó en la sección anterior, implica una velocidad constante de
desplazamiento de las cargas que median dicha corriente. Pero esto contradice la segunda dey
de Newton (F=m×a), según la cual una fuerza constante produce una aceleración constante.
Como explicar esta aparente contradicción? Simplemente reconociendo que el recorrido de las
cargas se ve interrumpido frecuentemente por colisiones con elementos de la materia que las
rodea: si una carga pudiera moverse libremente en el vacío, efectivamente acumularía
progresivamente un momento creciente (momento = masa×velocidad), proporcional al tiempo
transcurrido. Pero si en cambio sufre una colisión, su momento se verá alterado en dirección y
magnitud; el resultado es que choques sucesivos tienden a hacer que la dirección de
desplazamiento se vuelva aleatoria (por así decir, las cargas ‘pierden la memoria’ de hacia
donde se dirigían). La fuerza eléctrica tiene entonces que re-empezar a impartir momento en la
dirección del campo. Puesto que entre más velocidad adquiere una carga más camino recorre
por unidad de tiempo y mayor será la probabilidad de encuentro con un obstáculo, el resultado
es una fuerza opuesta a la dirección de movimiento la cual tiene una magnitud proporcional a la
velocidad. Se trata de un efecto completamente análogo a la fricción, el motivo por el cual un
cuerpo que cae en la atmósfera no acelera indefinidamente: a medida que su velocidad
aumenta, aumenta también la fricción con el aire (fuerza que actúa en la dirección opuesta a la
de caída), y cuando ésta se equipara en magnitud a la gravedad no habrá fuerza neta
resultante; por consiguiente, por el principio inercial de Galileo, el cuerpo seguirá entonces un
movimiento rectilíneo a velocidad constante. De la misma manera, la imposición de una
diferencia de potencial entre dos puntos de un dominio del espacio puede engendrar un
movimiento de carga que rápidamente llega a su velocidad terminal, en lugar de seguir
acelerando, y por ende se explica porque según la ley de Ohm un voltaje fijo engendra una
corriente constante.

• Combinación de resistencias en serie y en paralelo. Un sistema rara vez se puede


representar como un solo elemento resistivo. Más a menudo consiste de múltiples
elementos interconectados. Hay dos maneras de conectar dos resistencias: (i) una
seguida de la otra (en serie;
Figura 3.1A), o (ii) una al lado de
la otra (en paralelo; Figura 3.1B).
La resistencia total de un sistema
que consista de dos resistencias
conectadas en serie o en paralelo
se puede calcular conociendo
cuál es la resistencia de cada uno
de dos elementos, y aplicando la Figura 3.1
ley de Ohm:

(i) En serie: El voltaje entre los dos extremos del circuito, Vtot, debe ser la suma de
los dos incrementos de voltaje a través de cada una de las dos resistencias
(además, la corriente que fluye por las dos resistencias es la misma):

12
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

Vtot=ΔV1+ΔV2 = IR1+IR2=I(R1+R2)
pero también Vtot=IRtot ⇒ Rtot= R1+R2. Es decir, el valor de la resistencia total de
dos resistencias colocadas en serie es la suma de los valores individuales (y por
lo tanto es necesariamente mayor que la de cada elemento por separado).

(ii) En paralelo: La corriente total que pasa por el arreglo de las dos resistencias, Itot,
debe ser la suma de las corrientes que pasan por las dos ramas:

Itot = I1+I2 = V/R1+V/R2 = V(1/R1+1/R2)


pero también Itot= V/Rtot ⇒ 1/Rtot= 1/R1+1/R2 Es decir, el recíproco del valor de la
resistencia total de dos resistencias colocadas en paralelo es la suma de los
recíprocos de los valores individuales; por lo tanto, la resistencia total resulta
menor que la de cada componente individual. El valor de Rtot será
R1×R2/(R1+R2).

A partir de estas dos simples relaciones, podemos determinar la resistencia total en un circuito
más complejo, compuesto por numerosas resistencias interconectadas (y también los voltajes y
las corrientes en distintas sub-partes). En la mayoría de los casos, se trata simplemente de
descomponer el circuito en trozos más simples aplicando las dos reglas. Por ejemplo, en la
Figura 3.2 si preguntáramos cuál es la resistencia total, diríamos que debe ser el arreglo en
paralelo entre la rama A y la rama B. Ahora, la rama A
es la conexión en serie entre R1 y R2 (cuya resistencia
total sabemos calcular), mientras en la rama B es un
arreglo en paralelo de R3 y R4 (que también calculamos
fácilmente) a su vez conectado en serie con R5.
Aplicando las dos reglas secuencialmente varias
veces, obtenemos la respuesta deseada. Estas
consideraciones no se aplican solamente a los circuitos
que encontramos en instrumentos electrónicos: en
tejidos biológicos también fluyen corrientes, como se
mencionará más tarde, y distintas estructuras dificultan
Figura 3.2 de diferentes maneras esos flujos, con lo cual se
genera una situación análoga a los arreglos de
múltiples resistencias, descritos arriba. Un análisis de este tipo es justamente lo que se hace
cuando uno ha de establecer, por ejemplo, las pautas de flujo de corriente en un tejido como el
cerebro o el corazón (que son eléctricamente excitables). Un caso particular relativamente
sencillo es un epitelio, que está constituido por una capa celular la cual es cruzada por ciertas
especies de partículas eléctricamente cargadas; para lograrlo, éstas tienen primero que
atravesar la membrana de una célula, que dificulta su
movimiento (i.e. actúa como una resistencia), y luego deben salir
al otro lado atravesando nuevamente la membrana por la otra
cara de la misma célula (es decir, tenemos un arreglo de dos
resistencias en serie). Pero también existe un camino por los
intersticios entre una célula y otra (el así llamado camino para-
celular) lo cual viene siendo una resistencia en paralelo a las
otras dos. La Figura 3.3 ilustra esta situación: R1 representa la
resistencia de la membrana apical de las células epiteliales, R2 la
resistencia de la membrana basal, y R3 la resistencia del camino
paracelular. Con esto ya se puede vislumbrar una situación
reminiscente de las redes de resistencias en los circuitos Figura 3.3

13
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

electrónicos (hay ulteriores elementos que entran en juego en la corriente trans-epitelial, pero
en este momento no viene al caso discutirlos).

Una aplicación particularmente simple y ubicua de las reglas de combinación de resistencias es


el así llamado divisor de voltaje. Este consiste simplemente en un circuito de dos resistencias
en serie, al cual se aplica un voltaje dado entre los dos terminales (Figura 3.4). La pregunta es
cuál será el valor del voltaje en el punto medio, donde las dos resistencias se conectan. La
respuesta es sencilla y sólo hace uso de la regla de
como se suman dos resistencias en serie y la ley de
Ohm. La corriente total es I=Vtot/Rtot. Pero Rtot= R1+R2,
con lo cual es trivial calcular I. Consideremos que uno
de los extremos del circuito, digamos aquel donde está
R1, se encuentra a un voltaje = 0 (i.e. ‘tierra’ – esto sólo
simplifica el análisis, pero no es una suposición Figura 3.4
necesaria). Entonces, aplicando de nuevo la ley de
Ohm, sabemos que respecto a ese punto, el voltaje en el punto intermedio, llamémoslo VX,
será I×R1. Pero I = Vtot/(R1+R2), por lo tanto:
VX = Vtot ×[R1/(R1+R2)]
Es decir, el voltaje del punto intermedio será el voltaje de los extremos multiplicado por un
factor que representa cuál fracción de la resistencia total está dada por la contribución de R1.
Puesto que esta fracción puede tender valores entre (casi) 0 y (casi) 1, la conclusión es que el
punto medio estará comprendido entre 0 y Vtot, y que variando la razón entre R1 y R2 se puede
obtener cualquier valor deseado en ese rango. Por ejemplo, supongamos que hace falta un
voltaje de 3.6 V para hacer funcionar un cierto circuito, pero se dispone solamente de una pila
de 9 V. Entonces, se necesitan dos resistencias tales que:
R1/(R1+R2)=VX/Vtot = 3.6/9 = 0.4
Hay una infinidad de combinaciones que satisfacen esta condición, basta que R2=1.5×R1
(despejando de la ecuación). Si el circuito requiere una cantidad significativa de corriente, es
deseable seleccionar valores bajos de resistencia, porque la corriente de alimentación ha de
fluir a través de R2 y a lo sumo puede ser Vtot/R2. Este circuito es muy útil en la práctica para
generar voltajes arbitrarios, pero, para nuestros fines, tiene ulteriores implicaciones para las
mediciones de señales eléctricas generadas por células, la separación de moléculas por
campos eléctricos, etc. Estos temas se tratarán en una sección posterior.
Leyes de Kirkhoff. Existen instancias de circuitos constituidos por múltiples resistencias, que no
se pueden reducir a un solo elemento aplicando repetidamente las reglas de combinaciones de
resistencia en serie y en paralelo (y en algunos caso se trata de circuitos engañosamente
sencillos en apariencia!). Sin embargo, es siempre posible analizar las propiedades de un
circuito a partir de dos consideraciones generales:

(1) La suma algebraica de todos los voltajes a lo largo


de un circuito es cero. Es decir, si partiéramos un
circuito en un número arbitrario de “tramos”, y
determináramos la diferencia de potencial en los
dos extremos de cada tramo, la suma de estos
valores es cero. La Figura 3.5 ilustra un ejemplo,
que consiste en un circuito con una batería y tres
resistencias arregladas en serie. Las letras A, B, y
C determinan la división (arbitraria) del circuito en Figura 3.5

14
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

sub-tramos. La batería genera 1 Voltio y los valores de las resistencias son R1 = 5 Ω, R2


= 3 Ω, y R3 = 2 Ω. La corriente que fluye por el circuito se calcula fácilmente
considerando la regla de combinación de resistencias en series, lo cual da la resistencia
total del circuito: RTot = 10 Ω. Aplicando la ley de Ohm (I = V/R) el resultado es I = 1/10
= 0.1 A. Ahora la magnitud del voltaje en el tramo entre A y B es I×RA,B = 0.1×8 = -0.8 V
(el signo negativo se debe a que el punto B es necesariamente menos positivo que el
punto A, por encontrarse más alejado del polo positivo de la batería). El voltaje entre B
y C es I×RB,c = -0.1×2 = -0.2 V. Y el voltaje entre C y A es el voltaje generado por la
batería = 1 V. Si sumamos los tres valores, el resultado es cero.
(2) En cada punto del circuito, la suma de todas las corrientes es cero. El caso no-trivial es
cuando el punto en cuestión es un nodo, es decir, la unión entre 3 o más conductores.
Como ilustración, consideremos un circuito con dos resistencias en paralelo y una
batería, y el nodo ‘N’ (Figura 3.6). La batería genera 5 Voltios y las dos resistencias
tienen valores R1 = 20 Ω y R2 = 50 Ω. La resistencia total obedece a la regla de
combinación de resistencias en paralelo RTot =
20×50/(20+50) = 14.3 Ω, y por lo tanto la corriente
total del circuito es 5/14.3 = 0.35 A. Esta es la
corriente que entra al nodo “N”. La que sale por las
dos ramas es I1 = V/R1 = 5/20 = -0.25, y I2 = V/R2 =
5/50 = -0.1 A. La suma de las tres es cero. Esto, en
esencia, simplemente reafirma el principio de
conservación de carga: si no hay fuentes ni
sumideros en un punto nodal, la cantidad total de Figura 3.6
carga que entra ha de ser igual a la que sale.

A partir de estas reglas, conocidas como las leyes de Kirkhoff, y la ley de Ohm se puede
plantear un sistema de ecuaciones lineales simultáneas, cuya solución arroje la información
deseada.
Potencia. Si fluye una corriente por un medio conductivo, necesariamente se disipa energía:
supongamos que hay una corriente de I (amperios) que fluye entre dos puntos cuya diferencia
de potencial es V (voltios). Esto implica que cada segundo se transfieren I Coulombs a través
de una diferencia de potencial de V voltios; el trabajo realizado por segundo será de I×V Joules,
lo cual representa I×V vatios (1 W = 1 Joule/s). Es decir, el producto de corriente × voltaje arroja
la potencia (energía/segundo). Por ejemplo, si por el filamento de un bombillo de 120 V fluye
una corriente de 0.5 A, la potencia será 120×0.5 = 60 W. Alternativamente, puesto que V = IR,
utilizando la ley de Ohm podemos escribir la disipación de energía como W = I2×R o también
como W = V2/R. Inevitablemente, el proceso implica disipación térmica ya que el campo eléctrico
imparte energía cinética a las partículas cargadas que median la corriente, y éstas, a través de
colisiones, la transferirán a las demás moléculas del medio, produciendo un incremento de
temperatura. Es fácil entender de una manera intuitiva porqué se trata del producto del voltaje
y de la corriente: a mayor voltaje mayor la velocidad adquirida por cada electrón, y por lo tanto
mayor la agitación que se produce al colisionar. Por otra parte, entre más grande el flujo de
electrones (i.e. la corriente) este proceso será proporcionalmente mayor. Por lo tanto, en
numerosas aplicaciones en las cuales puede ocurrir daño térmico es imprescindible tener en
cuenta estos parámetros.

15
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

4. Capacitancia.

Mientras una resistencia permite el paso de corriente de un lado a otro, existe otro componente,
llamado condensador o capacitador, por el cual no fluye corriente pero que es capaz de
acumular carga. Un condensador está constituido por una delgada capa de aislante entre dos
conductores (e.g. dos placas metálicas separadas por una brecha de aire; Figura 4.1A), cuya
superficie tenga un área considerable. Al aplicar
un voltaje entre sus dos terminales, cargas de
polaridad opuesta ocupan la superficie de los
dos conductores, y, aunque no pueden
físicamente saltar la barrera aislante, se
encuentran lo suficientemente cerca para que
puedan atraerse mutuamente por la ley de
Coulomb (Figura 4.1B). Por lo tanto, aún si se
desconectara la fuente de voltaje, el Figura 4.1
condensador queda cargado (i.e. quedan cargas
de polaridad opuesta separadas por el dieléctrico; Figura 4.1C). La cantidad de carga
acumulada (Q) depende del voltaje aplicado (V), y de la capacitancia intrínseca del
condensador (C):
Q = V×C
Por consiguiente, la capacitancia de un condensador representa cuanta carga es capaz de
acumular para un voltaje dado (C = Q/V). A su vez, la capacitancia es directamente
proporcional al área de las placas (entre más grandes más cargas pueden acomodarse;
comparar Figura 4.2 A y B), e inversamente proporcional a su separación (entre más cercanas
una a la otra, menor la distancia entre cargas de polaridad opuesta, y por lo tanto mayor la
fuerza de atracción, por la ley de Coulomb; comparar Figura 4.2 A y C):
C ∝ A/d
(la constante de proporcionalidad, que omitimos, tiene que ver con propiedades del material
aislante entre los dos conductores). Estos parámetros
tendrán relevancia en sistemas biológicos, cuando
encontraremos capas eléctricamente aislantes que son
supremamente delgadas, como la membrana que
envuelve una célula, y que pueden presentar numerosos
pliegues que le confieren una superficie de área
considerable: su capacidad de acumular carga será por
lo tanto significativa, lo cual tendrá importantes
repercusiones en su comportamiento eléctrico. La
capacitancia se mide en unidades de Farad, y se
simboliza con la letra F.

Combinación de capacitancias en serie y en paralelo. Así


como las resistencias muchas veces se encuentran
Figura 4.2 conectadas unas a otras bien sea en paralelo o en serie,
también tenemos reglas que nos permiten establecer la
capacitancia total de dos (o más) condensadores conectados en paralelo o en serie. Estas
reglas resultan ser la imagen especular de las que gobiernan la combinación de resistencias: Si
dos condensadores, C1 y C2, se conectan en paralelo, CT = C1 + C2. Si se conectan en serie,
1/CT = 1/C1 + 1/C2. En otras palabras, la capacitancia de dos elementos en paralelo es siempre

16
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

mayor que la de cada uno por separado, mientras que en serie la capacitancia total es menor
que la de cada elemento. La demostración es trivial: si los condensadores se encuentran en
paralelo y se aplica un voltaje V al circuito, la carga en el primer condensador será Q1 = V⋅C1, la
del segundo será Q2 = V⋅C2. Evidentemente la carga total separada es QT = Q1 + Q2. Dividiendo
ambos lados de la ecuación por V, se obtiene QT/V= Q1/V + Q2/V, es decir, CT = C1 + C2. Si los
dos condensadores están en serie, la carga separada entre los dos terminales del circuito es Q;
pero también es la carga separada en cada uno de los condensadores (debe haber una
cantidad de carga igual y opuesta en cada par de placas), con lo cual Q = C1V1 = C2V2. Por
consiguiente, teniendo en cuenta que VT = V1 + V2, QT/CT = Q1/C1 + Q2/C2, i.e. 1/CT = 1/C1 +
1/C2

Corriente capacitativa. El condensador tiene gran utilidad en el diseño de circuitos eléctricos, ya


que su capacidad de acumular carga y luego liberarla permite construir aparatos cuyo
comportamiento tiene características temporales muy definidas, como por ejemplo sólo
responder a estímulos que cambien rápidamente, o, viceversa, a estímulos estacionarios o
lentamente cambiantes. Esto se puede vislumbrar considerando que ocurre en un condensador
cuando se altera el voltaje a través de sus dos terminales: si pasamos de V1 a V2 la carga en el
condensador cambiará de Q1= V1×C a Q2= V2×C. Es decir una cierta cantidad de carga (ΔQ)
debe bien sea entrar o salir del condensador. Este movimiento de carga representa una
corriente, que llamaremos corriente capacitativa simbolizada como IC. Puesto que la corriente
se define como rata de flujo de carga por unidad de tiempo, IC es la derivada temporal de la
carga, IC = dQ/dt, lo cual a su vez es = C×dV/dt. Si el voltaje es estacionario, dV/dt = 0 ⇒ IC = 0;
en otras palabras, no importa que tan alto el voltaje, no habrá corriente por el condensador
mientras V permanece estable. En cambio, si el voltaje cambia habrá corriente capacitativa, la
cual será más grande entre mayor la rata de cambio del voltaje. Entonces vemos que,
contrariamente a una resistencia, por la cual fluye corriente siempre en proporción a la
diferencia de voltaje entre sus terminales, en el caso de un condensador lo que más importa es
como va cambiando el voltaje, es decir sus características temporales. Notamos también que,
contrariamente a una resistencia en la cual se mantiene en todo momento una estricta relación
de proporcionalidad entre V y I, la ley del condensador implica que en ese caso la amplitud de
la corriente y la del voltaje pueden estar desfasadas en el tiempo. Consideremos un voltaje que
varíe según una función sinusoidal:
V(t) = A⋅sin(ωt)
La expresión indica que el voltaje crece y decrece cíclicamente,
alcanzando una amplitud de +A y –A (cuando sin(ωt) = +1 y -1,
respectivamente). El parámetro ω se conoce como la frecuencia
angular. Si ω = 1 el sinusoide cumple un ciclo cuando t
incrementa por 2π (en radianes, i.e. 360°). Si ω fuera 2, en
cambio, al cabo de π segundos ya se cumpliría un ciclo, y así
sucesivamente. Entre más grande el valor de ω, más rápidas las
oscilaciones: la frecuencia, f, medida en ciclos por segundo (i.e.
Hz), será f = ω/2⋅π. Ahora apliquemos ese voltaje a un
condensador y miremos la corriente que entra y sale del
condensador. Puesto que, como ya se explicó, la corriente
capacitativa es proporcional a la rata de cambio del voltaje
aplicado (IC = C⋅dV/dt), para un voltaje que varíe sinusoidalmente
la corriente será máxima cuando el voltaje tiene valor 0 (i.e.
cuando el sinusoide cruza la línea negra horizontal que es el
momento de máxima pendiente; el signo podrá ser positivo o Figura 4.3

17
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

negativo, representando la dirección de la corriente, según nos encontremos en la fase


ascendiente o descendiente del ciclo); en cambio la corriente será cero justo cuando el voltaje
alcanza su pico máximo o mínimo (en esos puntos la tangente, cuya pendiente representa la
rata de cambio, es horizontal). Siendo más formales, IC = C⋅d/dt(A⋅sin(ωt)) = C⋅ A⋅cos(ωt) [la
derivada de la función seno es el coseno]. Pero cos(x) = sin(x+π/2). Evidentemente corriente y
voltaje estarán desfasados, como ilustra la Figura 4.3.

Filtros. Combinando resistencias y condensadores es posible modular la respuesta temporal de


de un circuito. Este concepto está a la base de la construcción de filtros, circuitos que dejan
pasar o rechazan selectivamente señales eléctricas
que oscilen con diferentes frecuencias.
Consideremos, por ejemplo, una señal de voltaje que
podría cambiar en el tiempo, y por lo tanto la
representamos como una función V(t). En lugar de
monitorearla directamente, la pasamos por el circuito
ilustrado en la Figura 4.4, el cual consiste de una
resistencia seguida de un condensador cuyo otro
terminal está conectado a tierra. Como modifica este
simple circuito la señal en cuestión? Llamemos V’(t) el
Figura 4.4
voltaje de salida del circuito. Evidentemente, por la ley
de Ohm, V y V’ diferirán en la medida en que pase una corriente a través de la resistencia R, y
la diferencia, ΔV, será I⋅R. Esta corriente sólo puede continuar su camino por el condensador C,
y por lo tanto es igual a la corriente capacitiva, que como ya sabemos es igual a C⋅dV’/dt.
Entonces podemos representar nuestro voltaje desconocido, V’, como:
V’ = V + ΔV = V + R⋅I = V + R⋅CdV’/dt
Podemos re-arreglar los términos de esta ecuación y re-bautizar RC como τ:
dV’/dt – V’/τ = V
Se puede resolver esta ecuación para un caso sencillo, en el cual el voltaje V es inicialmente 0,
y en el instante t=0 brinca abruptamente a un valor fijo, llamémoslo Vo. Esto es como asumir
que el término de la derecha es una constante, V∞ (el nivel asintótico) y que el sistema
empieza en V=0, es decir, las condiciones iniciales de la ecuación son V = 0 para t< 0. La
solución de este problema es una función exponencial:
V’(t) = V∞(1 – exp(-t/τ))
Cuando t = 0, V’ también es cero (todo número elevado a un exponente de 0 da como resultado
1), y por consiguiente esta función satisface las condiciones iniciales del problema. Cuando
t→∞ V’→V0. En otras palabras, V’ empieza de cero, y sube exponencialmente hacia la asíntota
V0; la rapidez de esta transición gradual está dada por τ (=R⋅C), y por eso se le llama la
constante de tiempo del sistema. Este parámetro tiene de hecho unidades de tiempo, lo cual
puede parecer sorprendente, pero es fácil comprobarlo: R tiene unidades de Ω, pero por la ley
de Ohm es también igual a V/I, cuyas unidades son V/A = V×s/Coul. Por otra parte, la
capacitancia C se mide en Farad, pero puesto que C = Q/V (por la ley fundamental del
condensador), entonces F= Coul/V. Multiplicando R y C las unidades son por consiguiente s
(segundos). La constante de tiempo, τ, es el tiempo que ha de transcurrir para que el sistema,
empezando desde sus condiciones iniciales, llegue aproximadamente al 63% del valor final, la
asíntota (V0). Esto se deduce asignando a la variable tiempo el valor τ, con lo cual se obtiene:

18
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

V’(t) = V0(1 – exp(-τ/τ)) = V0(1 – exp(-1)) = V0(1 – 1/e)


El valor de e (la constante de Euler) es ≈2.718..., por lo tanto 1/e ≈ 0.37, es decir 1-1/e ≈0.63.
La Figura 4.5 muestra dos ejemplos de curvas exponenciales (o ‘relajaciones exponenciales’),
que empiezan en ambos casos desde
el valor 0 y tienen como asíntota 1 (en
unidades arbitrarias); es decir, ambas
están descritas por la ecuación V’(t) = 1
– exp(-t/τ), pero en un caso (curva azul
punteada) la constante de tiempo, τ, es
0.5 (unidades de tiempo arbitrarias).
Por lo tanto, cuando t= 0.5 entonces V’
habrá llegado al 63% de su valor
asintótico. Para el otro caso (curva roja
continua) τ = 1, y por consiguiente ese
es el tiempo que ha de transcurrir para
que el valor de V’ llegue a 0.63. Esto
nos dice que una transición abrupta en
el voltaje de entrada, sólo producirá un
Figura 4.5
cambio gradual en la salida. Si en lugar
de un paso sostenido se aplicara un breve impulso (e.g. más corto que la constante de tiempo),
la salida no alcanzaría a cambiar mayor cosa, y la amplitud de la señal resultante será por lo
tanto significativamente atenuada. Una transición de por sí lenta y sostenida, en cambio, no se
verá afectada por la limitante de la lentitud del circuito en responder, y entonces no sufrirá
atenuación considerable. Hemos creado un filtro pasa-bajos: una señal oscilatoria de alta
frecuencia será atenuada (rechazada) pero una de baja frecuencia (es decir, cuyos ciclos son
lentos) pasará sin mayor pérdida de amplitud. La Figura 4.6
ilustra gráficamente la situación: se aplica como estímulo
de entrada (‘in’) una onda rectangular y se observa la
salida (‘out’). En el panel A la frecuencia de la onda es
lenta, mientras que en B y C se hace progresivamente más
rápida, manteniendo la misma amplitud. Se observa que la
amplitud de la modulación en la salida (flechas verdes)
disminuye cada vez más. La discriminación entre cuáles
frecuencias pasan o se rechazan depende, por supuesto,
de la constante de tiempo. Además, si invirtiéramos las
posiciones de R y C en el circuito, el efecto será opuesto:
señales sostenidas no pasarían (una vez C esté cargado
no hay ulterior movimiento de cargas: por lo tanto, si no hay
corriente por R, no habrá voltaje entre sus terminales),
señales lentas pasarán con mucha atenuación, mientras
las rápidas no tendrán inconveniente alguno. Esto sería un
filtro pasa-altos. Se pueden construir filtros de frecuencia
con capacidades de discriminación más sofisticadas:
pensemos, por ejemplo, en lo que podría ocurrir al
combinar secuencialmente un filtro pasa-bajos (P-B) y un
filtro pasa-altos (P-A). En particular, seleccionemos una
frecuencia crítica para el filtro pasa-bajo mayor (más alta)
que la frecuencia crítica del filtro pasa-altos: por ejemplo,
Figura 4.6
digamos que fP-B = 1200 Hz mientras que fP-A = 800 Hz.
Toda señal cuya frecuencia fuera <1200 Hz pasaría por el primero (rechazándose fluctuaciones

19
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

más rápidas que ese nivel crítico); pero entre ellas, solamente las que tienen una frecuencia
>800 Hz lograrían pasar también por el segundo filtro (P-A). En síntesis, lo que finalmente pasa
por ambos estadios sin atenuación serían señales cuya frecuencia esté comprendida entre 800
y 1200 Hz; en otras palabras, se establece una banda permitida, y el filtro se llamaría
apropiadamente un filtro pasa-banda.
Los controles de tono (‘Bajos’ y ‘Altos’) de un equipo de sonido son precisamente filtros de
frecuencia ajustables, con los cuales el usuario, cambiando con una perilla el valor de una
resistencia conectada a un condensador, puede atenuar o enfatizar distintas bandas de
frecuencia, es decir, sonidos graves y sonidos agudos. Más adelante se verá que también en
los tejidos la combinación de estas mismas propiedades capacitativas y resistivas lleva a que
se constituyan filtros de frecuencia, cuyas propiedades son susceptibles de modificarse
dinámicamente. Este concepto subyace, por ejemplo, la habilidad de las células del sistema
nervioso para procesar señales eléctricas rápidamente en algunos casos, o integrar lentamente
la información en otros. También es un factor importante en las técnicas de medición eléctrica,
ya que si alguna resistencia de alto valor y alguna capacitancia se interponen entre la señal a
ser medida y el aparato que las mide, sus características temporales se verán afectadas. En
algunas instancias, estos efectos de filtro son indeseados, ya que distorsionan las señales
eléctricas que se quieren examinar; en otros casos, como se verá más tarde, la modificación es
deliberada y pretende bien sea eliminar interferencias o resaltar ciertas características de la
señal.

20
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

5. Impedancia

Las consideraciones anteriores sugieren que en un circuito que contenga tanto resistencias
como condensadores, la corriente que fluye no dependerá solamente de la magnitud del voltaje
aplicado, sino además de sus características temporales. Por lo tanto, el concepto de
resistencia entre dos puntos, tal como se había presentado, ya no se aplica en un sentido
estricto: por ejemplo, un cierto circuito podrá fácilmente permitir el flujo de una corriente (i.e.
ofrecer baja resistencia) en respuesta a un voltaje dado si este se mantiene constante, pero no
si varía rápidamente (en cuyo caso aparecería como un medio de alta resistencia), o viceversa.
Claramente, un simple número ya no basta para caracterizar que tan fácilmente fluye corriente
por un medio o un circuito dados. Esto nos lleva a la noción de impedancia, lo cual constituye
una generalización del concepto de resistencia: la impedancia eléctrica, usualmente
representada por la letra Z, ya no es un numero, sino una función que depende de la frecuencia
de oscilación del voltaje que se aplica (asumiendo que los cambios son sinusoidales), es decir
Z(f). Para cada frecuencia, la impedancia estará dada por el cociente entre la magnitud del
voltaje y la de la corriente resultante (análogo a la ley de Ohm, sólo que especificada
separadamente para cada frecuencia). Pero hay una complejidad adicional: hemos visto que la
presencia de una capacitancia resulta en un desplazamiento de fase entre voltaje y corriente.
En el caso de un condensador solo, el desplazamiento es de -90˚ (-π/2; ver Figura 4.3):
Entonces una descripción de la corriente que fluye por un circuito que solamente tome en
cuenta la magnitud de la corriente para cada frecuencia de voltaje aplicado es insuficiente:
hace falta además especificar el tamaño de cualquier ‘corrimiento’ temporal entre voltaje y
corriente, es decir, el desplazamiento de fase que puede ocurrir a cada frecuencia. Por lo tanto
la impedancia tiene que especificar dos números para cada valor de la frecuencia, y por
consiguiente representa dos funciones. Si uno analizara un filtro (por ejemplo, el filtro pasa-
bajos considerado previamente), se podría caracterizar enteramente su comportamiento
conociendo la atenuación y el desplazamiento de fase que sufre un sinusoide aplicado a su
entrada, en función de la frecuencia de oscilación del mismo.

De que nos sirve determinar el valor de la impedancia en un sistema biológico? Posteriormente


consideraremos la conducción eléctrica en los tejidos y fluidos biológicos, y veremos que
algunos constituyentes se comportan como una simple resistencia, mientras que otros sólo
pueden mediar transitoriamente un desplazamiento de carga local cuando cambia el voltaje, tal
como lo hace un condensador. El análisis de la impedancia nos permite discernir, entre otras
cosas, la presencia y la predominancia de lo uno vs. el otro, y sus características, con lo cual
uno deriva información valiosa sobre la constitución estructural de un tejido, de una célula, o de
sus componentes. De hecho, fue este tipo de acercamiento que proporcionó valiosa evidencia
de que las células debían poseer una delgada capa aislante (la membrana) que separara los
fluidos intra-celulares y extra-celulares. En una de las tantas aplicaciones prácticas de estos
conceptos, se han desarrollado métodos que, midiendo la impedancia eléctrica de los tejidos,
permiten estimar el porcentaje de grasa corporal de un individuo, lo cual es útil como criterio
diagnóstico sobre su estado nutricional y para formular estrategias de modificación de dieta.
Para éste propósito, se conecta un par de electrodos al paciente, por los cuales un generador
de corriente hace pasar una corriente alterna (usualmente en el rango de decenas de KHz) de
baja intensidad (<1 mA), mientras se monitorea el cambio de voltaje resultante. También se ha
explotado este mismo acercamiento con el fin de detectar lesiones o anomalías en la
constitución de diferentes tejidos: los dos paneles de la Figura 5.1 muestran las curvas de los
cambios en la magnitud y la fase que sufre una señal eléctrica de diferentes frecuencias de
oscilación al atravesar tejido pulmonar bien sea sano o afectado por un tumor.

21
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

Baghbani et al. Annals of Biomedical Engineering 2018

Figura 5.1

22
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

6. Medios electrolíticos

Hasta el momento se ha considerado la conducción eléctrica en metales, pero una corriente


puede darse en cualquier medio en el cual existan cargas y éstas se encuentren en relativa
libertad de desplazarse bajo la influencia de un campo eléctrico. El plasma, un gas en el cual
‘floten’ moléculas ionizadas es un ejemplo (como ocurre al interior de una lámpara de neón).
Esto ocurre también en ciertos líquidos, en los cuales estén disueltas moléculas que lleven una
carga eléctrica neta, como por ejemplo en los fluídos biológicos tanto en el interior de las
células como en los intersticios y espacios extracelulares.

Dipolos eléctricos, solventes polares, coeficiente dieléctrico. La razón por la cual en un medio
acuoso pueden estar disueltas partículas cargadas es que el agua es un solvente polar. Esta
propiedad hace referencia al hecho de que las moléculas de agua, aunque eléctricamente
neutras, son alargadas y manifiestan una distribución asimétrica de su nube electrónica, la cual
es más densa alrededor del oxígeno (más electronegativo), como muestra la Figura 6.1A. Esto
confiere una carga negativa a esta región de la molécula, mientras que los dos protones de los
hidrógenos quedan neutralizados de una manera incompleta y por lo tanto mantienen una
carga neta positiva (Figura 6.1B).
La separación espacial de las dos
regiones con carga opuesta
confiere a la molécula de agua
propiedades de un dipolo eléctrico:
la aplicación de un campo eléctrico
no produce una fuerza neta ni una
migración, ya que la carga total de
la molécula es cero, pero aplica un
torque (T = E×μ, donde μ es el
momento dipolo, definido como el
producto de la carga y la distancia
que la separa, μ = r⋅q), el cual re- Figura 6.1
orienta la molécula, alineándola
con el vector del campo eléctrico. Esto hace que una partícula cargada disuelta en un medio
acuoso pueda encontrarse en una situación energéticamente favorable, rodeada de moléculas
de solvente apropiadamente alineadas, apuntando hacia su centro de carga y neutralizándola
parcialmente. A nivel macroscópico, la presencia y magnitud de un momento dipolo en las
moléculas del medio se traduce en el coeficiente dieléctrico, ε. Moléculas polares y ionizadas
se disuelven fácilmente en un solvente con alto coeficiente dieléctrico como el agua (ε≈80); en
cambio, moléculas no-polares lo harían con dificultad, porque interferirían con las interacciones
electrostáticas entre las moléculas del solvente, y tenderán por lo tanto a agregarse y formar un
precipitado insoluble. Por ejemplo, en agua el cloruro de sodio (NaCl; Figura 6.1C) se disocia
en Na y Cl, pero el cloro, siendo más electronegativo, retiene un electrón extra, y adquiere una
carga neta negativa (Cl-, un anión). Recíprocamente, el sodio queda ‘corto’ de un electrón y
tendrá por lo tanto una carga neta positiva (Na+, un catión). Ambos constituyentes se
encontrarán en una situación energéticamente favorable, rodeados de moléculas polares
orientadas apropiadamente para neutralizar su carga (la así llamada concha de hidratación;
Figura 6.1D).
Ahora podemos considerar que ocurre con la conductividad de un medio acuoso. En principio,
uno diría que si se trata de agua pura, la conductividad debería ser nula, por ser las moléculas
de H2O eléctricamente neutras y por lo tanto incapaces de migrar en respuesta a un campo

23
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

eléctrico y mediar una corriente. Pero realmente, además de H2O, el agua contiene una
cantidad finita de protones libres (H+) y de hidroxilos (OH-) debido al equilibrio de la reacción:
H2O ' H+ + OH-
El pH representa –log([H+]), donde la concentración de protones está dadas en molares
(mol/litro). Por lo tanto a pH ‘neutro’ = 7 la concentración de protones es 10-7 M o 0.1 μM (una
deci-millonésima de molar); lo mismo con los hidroxilos. Tanto los protones como los hidroxilos
son cargados (i.e. son iones) y por lo tanto confieren al agua propiedades de conductor. Pero a
pH neutro (lo cual es inevitable si se trata de agua pura, porque se disocia el mismo número de
H+ y de OH-) su concentración es muy baja, y por consiguiente la conductividad eléctrica es
muy modesta (i.e. alta resistividad): 18 MΩ⋅cm. Pero si el pH fuera, por ejemplo, muy acídico,
digamos pH=3 (lo cual implica añadir algún ácido, por ejemplo HCl), ya se tendría un milimolar
de protones libres, lo cual constituye una concentración apreciable y determina una
conductividad significativa. El mismo efecto se obtendría si disolviéramos una buena cantidad
de sal (NaCl): ésta de disociaría en iones de sodio (Na+) y de cloruro (Cl-), los cuales
incrementarían significativamente la conductividad. Los fluídos intra- y extra-celulares contienen
gran cantidad de iones disueltos (totalizando casi 300 mM en un mamífero, y mas de 1M en un
animal marino), y esto implica que estamos tratando con medios de alta conductividad,
propicios para mediar fenómenos eléctricos. Otras sustancias como la sacarosa (C12H22O11)
también se disuelven en agua, pero sus moléculas no se disocian, y al quedar intactas son
eléctricamente neutras; por lo tanto la conductividad de la solución no incrementa.
Clarificación de las diferencias entre conducción en metales y electrolitos. En resumen,
mientras en metales la matriz de átomos es fija y la única manera de tener movimiento de
carga es desplazando electrones, en líquidos no hay una estructura fija de la materia: las
moléculas mismas, tanto de solvente como de soluto, son móviles y capaces de desplazarse
por difusión. Por lo tanto, la conducción eléctrica ocurre con el desplazamiento de moléculas
enteras que posean una carga neta (iones). Podemos fácilmente ver cuáles factores
determinan la resistividad/conductividad de un medio electrolítico. En primer lugar, es obvio que
la concentración iónica de la solución va a jugar un papel importante: entre más disponibilidad
partículas cargadas, más corriente puede fluir bajo un voltaje dado. Segundo, la movilidad de
los iones es determinante: evidentemente una molécula pequeña experimentará menor fricción
al desplazarse por un medio que tiene cierta viscosidad, y por lo tanto puede fluir más
fácilmente (su coeficiente de difusión será mayor). Finalmente, entre más grande la carga
eléctrica neta que lleva la molécula en cuestión - i.e. z×qe, z siendo la valencia y qe la carga
elemental - mayor la fuerza que experimentarán al aplicarse un campo eléctrico. Los últimos
dos factores a menudo suelen juntarse en un solo parámetro, denominado la movilidad
electroforética.
Propiedades dieléctricas del agua. Ahora vale la pena aclarar algo importante respecto a la
conductividad de un líquido que no contenga moléculas ionizadas, pero cuyo coeficiente
dieléctrico sea alto (i.e. un medio polar). En principio, uno concluiría que la aplicación de un
voltaje entre dos electrodos sumergidos en dicho líquido no engendraría corriente alguna, pero
hay que considerar las características temporales de ese voltaje. Si se tratara de un voltaje
estacionario (DC), efectivamente la suposición sería válida; pero en el caso de un voltaje
oscilante (AC) la situación sería distinta. Al alternarse la polaridad entre los electrodos, el
campo eléctrico en el medio invertiría su dirección cíclicamente. Las moléculas del líquido, al
ser polares, responderían re-orientándose, y por la tanto en cada una de ella ocurriría un
desplazamiento local de carga con cada ciclo. Notar que, tratándose de moléculas neutras,
ninguna de ellas habrá sufrido un desplazamiento espacial neto, es decir, no habrá migración
electroforética. Aunque se trata de eventos individuales diminutos (pocas cargas por molécula,
que se desplazan por una distancia minúscula), si sumamos las contribuciones de todas las

24
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

moléculas en el medio, eso puede representar


una corriente alternante posiblemente masiva.
En otras palabras, la ‘resistencia’ del medio
(que se define en términos de cuánta
corriente pasa al aplicar un voltaje dado),
lejos de ser infinitamente alta, podría en estas
circunstancias llegar a tener un valor bajo. Se
trata evidentemente de una instancia en la
cual es preciso considerar la impedancia del
medio (ver sección 5), no la simple resistencia
DC. El caso del agua es especialmente
relevante: aún ignorando la presencia casi
despreciable de unos pocos iones (protones e
hidroxilo, a una concentración de una deci- Modificado de Rusiniak, Acta Geophys. Pol. 2004
millonésima de molar), la impedancia baja
Figura 6.2
dramáticamente al pasar de un voltaje
constante a una onda AC, llegando a su nivel mínimo cuando la frecuencia alcanza unas pocas
decenas de Hz. La figura 6.2 ilustra la situación: se aplicaron a un compartimiento lleno de
agua voltajes oscilantes de frecuencia creciente y se midió su conductancia, la cual incrementó
progresivamente, llegando a un nivel estable a f < 100 Hz. Es evidente que las corrientes
resultantes pueden ser lo suficientemente grandes para constituir un peligro cuando una fuente
de voltaje alternante como la red eléctrica (que típicamente oscila a 50 o 60 Hz) hace contacto
con un medio acuoso – de allí las advertencias de evitar que elementos eléctricos sean
expuestos a agua.
Aislantes en sistemas electrolíticos: Una interfase entre un compartimiento acuoso y un medio
no polar actúa como una barrera para el movimiento de los iones que están disueltos en el
medio acuoso (i.e. partículas cargadas tenderán a no penetrar el medio no-polar). La célula
esta delimitada por una membrana (‘plasmalema’) constituida por una capa de fosfolípidos;
éstos se componen de un ácido graso, con su doble cadena de hidrocarbonos, enlazado a un
glicerol, el cual, a su vez, se une a otra molécula (serina, colina, etanolamina, etc.). Debido a su
naturaleza anfipática, con la cabeza polar y las dos cadenas hidrofóbicas, en un medio polar
como el agua los fosfolípidos pueden asumir pocas configuraciones energéticamente estables,
en las cuales las cadenas acílicas de distintas moléculas se juntan entre sí y exponen al medio
acuoso las cabezas polares; configuraciones posibles son micelas y bicapas planas (es decir,
una doble capa que expone las cabezas polares a los dos lados) cerradas en forma de
vesícula. Ésta última configuración permite la creación de compartimentos separados en
sistemas electrolíticos: no solamente queda la célula delimitada por dicha membrana, sino
también se pueden crear sub-compartimentos internos que ejercen funciones especializadas
dentro de la célula y requieren estar separados del resto del citoplasma. La membrana impone
una barrera difusional para los iones, que difícilmente abandonarían un ambiente polar
(coeficiente dieléctrico ≈80) para insertarse en la fase hidrofóbica de la membrana (ε≈2-3).
Puesto que los iones son los que median toda transferencia de carga eléctrica en una solución,
desde el punto de vista eléctrico las membranas biológicas funcionan como aislantes, y por lo
tanto entre el interior y el exterior de la célula existe una barrera eléctrica de alta resistencia (la
resistencia de la membrana, Rm).

Ahora que sabemos que los fenómenos eléctricos en medios electrolíticos representan la re-
distribución de iones, a menudo querremos cuantificar el flujo de moléculas a partir del tamaño
de la corriente o, viceversa, conociendo el movimiento de una cierta especie de moléculas
tendremos la necesidad de calcular cuánta corriente eso representa. La constante de Faraday

25
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

(que especifica la cantidad de carga en un mol de un ión monovalente: 96500 coul×mol-1) y el


número de Avogadro (No ≈ 6×1023 partículas/mol) permiten convertir entre cantidades eléctricas
y químicas, haciendo posible el cálculo del número de partículas implicadas en un fenómeno
eléctrico (o viceversa). Por ejemplo, si fluye una corriente de 0.1 A (es decir, 0.1 Coul/s), al
dividir por la constante de Faraday sabríamos que es equivalente a 0.1/96500 mol/s de iones
monovalentes. Multiplicando por No podríamos determinar cuantos iones/segundo están
fluyendo.

Electrodifusión. La importancia de los fenómenos eléctricos en medios electrolíticos es enorme:


a través de la membrana de toda célula existe un voltaje basal significativo (negativo en el
interior, respecto a los fluidos extracelulares), y cambios en este voltaje constituyen el principal
sistema de transmisión de información a distancia, y sirven también para gatillar un sinnúmero
de procesos celulares, desde la liberación de mensajeros químicos, hasta la contracción de
fibras musculares. La consideración fundamental que nos permite esclarecer la naturaleza de
estos fenómenos bio-eléctricos es que los iones, siendo partículas disueltas en un medio
líquido y portadoras de una carga eléctrica neta, son susceptibles a dos determinantes que
pueden inducir su movimiento: por una parte, como todo soluto en un fluido, tienden a
desplazarse de regiones del espacio donde se encuentren en alta concentración hacia regiones
donde su concentración sea menor. La ley de Fick formaliza esta relación:
J = -DdC/dx
Donde J es el flujo de partículas (en mols⋅s-1⋅cm-2), dC/dx es la rata de cambio de la
concentración en el espacio), y D una constante positiva, llamada el coeficiente de difusión. En
otras palabras, el flujo difusional de partículas es proporcional al gradiente de concentración; el
signo negativo simplemente recalca el hecho de que el movimiento se dará en la dirección en la
cual la concentración va disminuyendo. Por otra parte, el movimiento de iones es también
influenciado por fuerzas eléctricas, es decir el gradiente del potencial eléctrico en el espacio, y
los factores que determinan qué tanto dichas fuerzas eléctricas se traducen en movimiento del
soluto: su valencia (cuanta carga lleva cada molécula), su concentración, y la facilidad con la
cual las partículas se pueden desplazar en dicho medio (el tamaño de las partículas y la
viscosidad del medio, que determinan las fuerzas de fricción). Cada vez que existen diferencias
de concentración de un tipo de soluto iónico, el movimiento que resulta lleva a un re-arreglo de
cargas, y por lo tanto genera corrientes eléctricas y cambios en el potencial eléctrico en
diferentes puntos del espacio. Viceversa, cada vez que fuerzas eléctricas impulsan el
movimiento de partículas ionizadas, se engendran cambios en su concentración en dicho
dominio espacial. Consideremos dos compartimientos acuosos separados por una barrera.
Imaginemos que en el líquido se haya disuelto alguna sal, la cual se disocia en cationes y
aniones, y que la concentración en los dos compartimientos fuera diferente. Por ejemplo,
podríamos tener 100 mM de KCl en el lado izquierdo y 10 mM de KCl en el lado derecho
(Figura 6.3, panel de la izquierda). Asumamos además que la barrera fuera selectivamente
permeable a una sola de las dos especies iónicas, por ejemplo, al potasio (los motivos
detallados trascienden los propósitos de este curso, pero tienen que ver con la presencia en la
membrana de moléculas especializada en transportar solutos de un lado al otro, pero capaces
de discriminar cuáles especies tendrán paso, y cuáles no podrán translocarse). Debido a la
diferencia de concentración, la ley de Fick predice que habrá un movimiento difusional del lado
izquierdo al lado derecho, pero esto solamente se aplica al K+, ya que el Cl- no puede atravesar
la partición. Pero puesto que el potasio es positivamente cargado, cada vez que un K+ se
desplaza, el compartimiento izquierdo pierde una carga eléctrica positiva y queda por lo tanto
electronegativo, mientras que el derecho gana una carga positiva y se torna más positivo (panel
de la derecha). Este desbalance de carga no es compensado, ya que el cloruro, pese a
experimentar el mismo gradiente de concentración, no puede cruzar la barrera. Entre mayor el

26
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

flujo de potasio, mayor la diferencia de


potencial eléctrico que se establece
entre los dos compartimientos. Pero
este voltaje repercute a su vez sobre el
movimiento de potasio: entre más
grande, más la electronegatividad del
compartimiento de la izquierda tiende a
retener los iones de potasio (que son
positivos) mientras que el de la
derecha tiende a repelerlos. Llegará el Figura 6.3
punto en el cual la diferencia de potencial contrabalanceará el gradiente de concentración:
tendencias difusionales y fuerzas eléctricas serán iguales y opuestas y los iones de potasio se
encontrarán en equilibrio, y dejarán de producir un flujo neto. Esta situación se conoce como
Equilibrio de Nernst, y el voltaje que balancea el gradiente de concentración para un ión dado
es el potencial de Nernst para ese ión. Esto se expresa cuantitativamente por la ecuación de
Nernst (cuya derivación trasciende los propósitos de esta exposición):

Ex = RT/zFln([X]e/[X]i)

Ex representa el potencial de equilibrio del ión X, R es la constante universal de gases, T la


temperatura absoluta, z la valencia del ión en cuestión, F la constante de Faraday (como se ha
dicho, es la carga contenida en un mol de un ión monovalente), ln el logaritmo natural, [X]e y [X]i
la concentración externa e interna del ión. Las consideraciones anteriores implican que, si
existen concentraciones desiguales a los dos lados de una partición semi-permeable, se puede
llegar a la creación de un potencial eléctrico estable, engendrado por movimientos selectivos,
que son impulsados por la difusión a lo largo de un gradiente de concentración. Notar que el
parámetro fundamental que determina el potencial de equilibrio es el cociente entre las
concentraciones iónicas, no sus valores absolutos. En otras palabras, se obtendría el mismo
resultado si, por ejemplo, a los dos lados de la partición las concentraciones de un ión X fueran
100 vs. 10 mM, o fueran 300 vs. 30 mM.
En las células sucede algo muy similar: la concentración de distintos iones en el interior vs. el
exterior es diferente, gracias a la acción de moléculas llamadas bombas iónicas. Justamente, el
potasio se acumula en el interior alcanzando un gradiente de concentración de ≈40×, mientras
el sodio y el calcio son extruídos y por lo tanto se encuentran a mayor concentración en el
exterior; además, la membrana celular, aunque generalmente impermeable a moléculas
polares y cargadas, deja sin embargo pasar potasio (pero no sodio ni tampoco calcio, por lo
menos en el estado de reposo). El éxodo del potasio del interior de la célula engendra un
gradiente de potencial eléctrico, el potencial de reposo, que es negativo adentro porque tiende
hacia el equilibrio de Nernst de este ión. Esto ocurre prácticamente en la totalidad de las
células animales conocidas. Más aún, si en otro momento otros iones se volvieran
transitoriamente permeantes, se engendrarían movimientos netos que alterarían el potencial
eléctrico a través de la membrana: por ejemplo, el sodio o el calcio, al encontrarse en mayor
concentración en el compartimiento externo, tenderían a ingresar a la célula y, siendo
positivamente cargados, desplazarían el voltaje de la membrana hacia un valor positivo. De
esta manera la célula es capaz no solamente de mantener un potencial negativo sostenido en
estado de reposo, sino también de generar cambios eléctricos en respuesta a diferentes
estímulos. Entre las numerosas instancias tenemos los fenómenos eléctricos en respuesta a
estímulos externos, producidos por células especializadas denominadas receptores
sensoriales, que permiten extraer información del ambiente; perturbaciones del potencial de
membrana que evocan una ola eléctrica que se propaga rápidamente a lo largo de los procesos

27
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

de una neurona, que hacen posible la transmisión de información a distancia; y los cambios de
permeabilidad de la membrana causados por sustancias bio-activas secretadas por diversas
células, que median la comunicación inter-celular. Estas funciones son comunes a todos los
metazoa, pero hay organismos que han explotado ulteriormente las posibilidades que brinda la
electricidad: diferentes especies acuáticas han desarrollado órganos especializados, en los
cuales millones de células son capaces de descargar de una manera sincronizada su diminuta
carga eléctrica acumulada. Esto hace posible generar pulsos eléctricos macroscópicos, que se
utilizan bien sea para ‘sondear’ el entorno (monitoreando las señales rebotadas por objetos
alrededor – de una manera análoga a como lo hacen un radar o un sonar); además, descargas
de magnitud aún mayor sirven como arma defensiva para neutralizar un predador, o inclusive
como arma ofensiva para cazar una presa.

28
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

7. Electroforesis
Podemos brevemente considerar una de las tantas aplicaciones de los principios de
electricidad en sistemas electrolíticos, donde la conducción eléctrica es mediada por moléculas
enteras ionizadas y por lo tanto la aplicación de un voltaje causa su migración. La
electroforesis consiste en el desplazamiento de una partícula cargada bajo la influencia de
fuerzas eléctricas, y tiene considerable relevancia a las ciencias biológicas.

Separación de moléculas
La aplicación más típica concierne la separación de macromoléculas que se encuentren
mezcladas en una muestra; esto se basa en que si distintos compuestos depositados en un
punto de un medio migran a velocidades diferentes, entonces al cabo de un cierto tiempo
habrán recorrido distancias diferentes y por lo tanto se habrán separado unos de otros. Este
acercamiento puede servir bien sea para ayudar la identificación e inclusive la cuantificación de
constituyentes presentes en la mezcla (electroforesis analítica) o bien para su purificación para
uso posterior (electroforesis preparativa). En esta breve introducción se enfatizarán solamente
los fundamentos eléctricos de la técnica, no los aspectos bioquímicos. Por supuesto, es
imprescindible que las moléculas en cuestión posean una carga eléctrica neta, lo cual puede
ocurrir naturalmente en el caso de muchos tipos de sustancias, o puede requerir el uso de
algún compuesto exógeno que se adhiera a ellas y les confiera una carga. Los determinantes
fundamentales de la velocidad de migración en un campo eléctrico dado son (i) la carga de la
molécula (la cual dictamina la fuerza ejercida sobre ella por el campo: F = E⋅q, donde F es la
fuerza, E el campo eléctrico y q la carga) y (ii) su tamaño (el cual establece una fuerza de
fricción que se opone al movimiento). De esto se desprende que una molécula podría migrar
más rápidamente que otra bien sea por tener una mayor carga eléctrica, o bien porque aún
teniendo la misma carga su tamaño fuera menor, lo cual facilita el desplazamiento; por
consiguiente, aunque podríamos fácilmente lograr la separación eléctrica entre especies
moleculares, desconoceríamos el porqué (es decir, cuáles propiedades de las diferentes
sustancias son responsables por esa separación). Más aún, el mismo campo eléctrico podría
producir la migración de diferentes moléculas en direcciones opuestas, si la polaridad de su
carga es también opuesta. Claramente hace falta imponer algún orden para que el concepto de
electroforesis se vuelva de utilidad práctica. La aplicación más común pretende separar
moléculas según su masa y para lograrlo hace falta tomar dos medidas. Un primer paso es
cerciorarse de que las diferentes moléculas no difieran de una manera caprichosa en cuanto a
su carga eléctrica, sino posean una carga neta de la misma polaridad, que sea proporcional a
su masa. Esto sucede naturalmente en polímeros cuyos elementos constituyentes (i.e. los
monómeros) tienen una carga y un tamaño más o menos fijos (por ejemplo, las cadenas de
ácidos nucléicos, ADN y ARN, las cuales están constituidas por nucleótidos que son aniónicos
y de peso molecular similar). En cambio, en las proteínas la composición de aminoácidos varía
mucho, y éstos a su vez pueden diferir drásticamente tanto en la carga neta (que puede ser
positiva, negativa o neutra) como en el peso molecular (desde 75 Dalton para glicina, hasta 204
Da para triptófano). Para obviar este problema, se aplica un detergente aniónico, sodio dodecil
sulfato (SDS), que se combina con las proteínas en una relación prácticamente constante: ≈1.4
gramos de SDS por cada gramo de proteína. La carga introducida por el SDS es (i)
cuantitativamente mucho mayor que toda carga endógena que poseyera inicialmente la
proteína, y (ii) proporcional a la masa del polipéptido; por consiguiente, se obtiene una
población de proteínas modificadas que son todas negativamente cargadas (cualquier carga
positiva nativa habrá sido abrumada por las cargas negativas mucho más numerosas del SDS
adsorbido), y con una relación carga-masa aproximadamente constante. Esta primera medida
sirve para uniformar la carga eléctrica de las proteínas, pero no nos ayuda a separarlas, ya que
la constancia del cociente carga-masa hace que la movilidad de diferentes moléculas tenderá a

29
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

ser la misma: las más grandes son las que experimentan la mayor fuerza eléctrica, pero
también sufren mayor fricción con el medio, y viceversa. Para obviar este inconveniente se
introduce entonces un medio que proporcione un impedimento diferencial a moléculas de
diferentes tamaños: en lugar de un líquido, se usa alguna matriz cuya textura dificulte más el
paso de moléculas grandes: por ejemplo, un gel,
constituido por una ‘telaraña’ de algún polímero
(tal como acrilamida o agarosa), con los
intersticios ocupados por un líquido conductivo.
Ahora las moléculas se verán selectivamente
retardadas en su migración dependiendo de su
tamaño, y, debido a sus diferentes velocidades, al
cabo de un determinado período se encontrarán
segregadas en posiciones distintas (Figura 7.1).
La comparación con la migración de moléculas de
referencia cuya masa sea conocida permite
asignar un peso molecular a las moléculas que se
han separado en la muestra. También es posible
recoger solamente una población de moléculas de Figura 7.1
cierta masa, una vez separadas de las demás, y obtener por lo tanto su purificación: esto es
factible porque se puede físicamente cortar una de las ‘bandas’ obtenidas (ya que se trata de
una matriz de gel), separándola del resto, y eluir su contenido.

Consideremos las fuerzas que empujan la migración electroforética. Es importante recalcar


que, para una carga dada, la fuerza eléctrica depende del campo, el cual a su vez es el
gradiente del potencial; en otras palabras, la fuerza depende de que tan rápidamente va
cambiando el potencial al desplazarse en el espacio (i.e. la derivada espacial del potencial,
dV/dx). No es lo mismo aplicar un voltaje de 10 V entre dos puntos separados por una distancia
de1 cm, vs. de 10 cm: a pesar de que la diferencia de potencial es la misma en los dos casos,
el campo eléctrico (y por lo tanto las fuerzas ejercidas sobre partículas cargadas) será 10 veces
mayor en el caso de la distancia corta (la ‘pendiente’ del voltaje es más empinada).

Hay dos maneras de implementar una separación electroforética: por voltaje constante, o por
corriente constante; cada uno de los dos acercamientos presenta ventajas y desventajas. En el
primer caso la fuente de poder se encarga de mantener una diferencia de potencial fija (el
voltaje, V) entre los extremos del medio (el cual, como se ha dicho, suele ser un gel). En el
segundo caso, la fuente de poder impone un flujo de corriente pre-determinado (I) a través del
medio. Aquí el voltaje que resulta depende, por la ley de Ohm, de la resistencia del medio: V =
IR; para una corriente dada, entonces, el voltaje será mayor si el medio es de alta resistencia.
La resistencia, recapitulando conceptos presentados en una sección anterior, crece con la
longitud del recorrido por el medio resistivo, y decrece con el área de sección del mismo: R =
ρL/A. Es importante tener en claro el impacto de diferentes parámetros eléctricos para lograr el
objetivo y evitar percances: (i) se necesita un campo eléctrico de intensidad apropiada para
impulsar la migración de moléculas cargadas, y (ii) se quiere evitar excesiva disipación de
energía en calor, lo cual podría perjudicar la integridad de la muestra y/o del medio mismo.
Recordemos que la disipación de energía (medida en vatios, y simbolizada por la letra W) es el
producto de corriente y voltaje: W = IV. Pensemos en casos prácticos: usualmente la
separación electroforética se lleva a cabo por un medio cuya geometría es un paralelepípedo
(Figura 7.1) que tiene una longitud considerable (muchos centímetros) en la dirección del
campo que se aplica; esto permite que las diferentes clases de moléculas puedan llegar a
distanciarse significativamente unas de otras. Por otra parte, el espesor del medio (y por lo
tanto el área de sección) es muy modesto (0.5 a 5 mm); conjuntamente, estos dos parámetros

30
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

se traducen en una alta resistencia longitudinal. Si uno opta por usar voltaje constante, éste
suele ser considerable (típicamente > 100 V), para poder engendrar un campo aceptablemente
intenso (voltaje/distancia). Si uno prefiere corriente constante, ésta en cambio tendrá que ser
modesta (milliamperios), porque al cruzar un medio de tan alta resistencia aún una corriente
pequeña genera un voltaje grande (V = IR). Ambos parámetros, además, han de cumplir con el
requisito de que la disipación de energía no sobrecaliente el medio (por ejemplo si tenemos 120
V y 20 mA, se disipan 24 W, lo equivalente a un bombillo de baja potencia; si en cambio, para
acelerar la migración, subiéramos mucho el voltaje y la corriente, podríamos llegar a tener una
disipación en calor de muchas decenas o cientos de vatios, que llevaría a una enorme
elevación de temperatura y la consecuente destrucción de la muestra y del gel – y tal vez
también de la fuente de poder!
La electroforesis no se utiliza solamente para separar moléculas; el experimentador puede
también estar interesado en transferirlas a otro medio
una vez lograda su separación por tamaño (por
ejemplo, haciéndolas migrar a una membrana de
nitrocelulosa o de nylon). En este caso, se pondría el
gel en contacto con la membrana y se aplicaría un
campo eléctrico en la dirección del espesor del gel (es
decir, transversalmente, entre las caras anchas del
paralelepípedo). La Figura 7.2 ilustra
esquemáticamente el arreglo; aquí no hace falta un
gran voltaje, ya que el campo resultante será intenso
debido a la corta distancia a través de la cual se
aplica V; en modalidad de corriente constante, en
cambio, el valor de I deberá ser considerable para
lograr producir un voltaje aún modesto, porque en
esta dirección la resistencia es muy baja (ahora en la Figura 7.2
fórmula R = ρL/A la distancia L es pequeña y el área
de sección A es grande). Hagamos un ejemplo concreto que contraste estas dos modalidades,
separación electroforética de proteínas, seguida de eletrotransferencia. La solución con la cual
se prepara un gel de acrilamida normalmente tiene una resistividad específica ρ ≅ 375 Ω⋅cm.
Consideremos un gel pequeño, de 8 cm de longitud, 6 cm de ancho, y 1 mm de espesor. La
resistencia longitudinal sería por lo tanto R = ρ × Longitud/Área de sección, es decir:
R = 375 × 8 / (6 × 0.1) = 5000 Ω
Si durante la separación de proteínas se aplica un voltaje del orden de 100 V (valor bastante
típico) longitudinalmente entre los dos extremos del gel, se engendra una corriente de:
I = V/R = 100/5000 = 0.02 A i.e. 20 mA
El campo eléctrico resultante será de 100 V/ 8 cm = 12.5 V/cm. Supongamos que luego se
quiere transferir las proteínas que se han separado a una membrana de nitrocelulosa: habiendo
formado un ‘sandwich’ gel/membrana, se conectaría al polo negativo de la fuente de poder el
electrodo cercano al gel (cátodo) y al polo positivo el electrodo cercano a la membrana, hacia
donde deben migrar las proteínas. Un campo eléctrico de intensidad igual al caso anterior
ahora requiere un voltaje de solo 1.25 V, ya que la distancia es de sólo 1 mm. Si en cambio se
aplicara el mismo voltaje de 100 V directamente a las dos caras anchas del ‘sandwich’,
entonces, debido a que la resistencia relevante (la transversal) es:
R = 375 × 0.1 / (6 × 8) = 0.78 Ω

31
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

(≅ 6400 veces menor que la resistencia longitudinal) la corriente sería de 128 A


(aproximadamente equivalente al suministro de corriente para un edificio de varios
apartamentos) y la disipación de energía por lo tanto alcanzaría 12.8 kW, lo cual desintegraría
el gel y la membrana, y fundiría la fuente de poder!
Hay muchas variantes de la electroforesis, y sus derivaciones conceptuales exceden los
objetivos de esta resumida introducción; cabe sólo mencionar que la composición del medio
puede ser no homogénea en cuanto a conductividad eléctrica (lo cual engendra campos
localmente diferentes, puesto que V = IR); puede ser no-homogénea en cuanto a impedimentos
mecánicos (i.e. un gel progresivamente más ‘tupido’); y puede implicar gradientes de pH, que
cambian la carga neta en las proteínas (dependiendo si se le pega o no un protón); finalmente,
pueden aplicarse secuencialmente campos eléctricos orientados en más de una dirección, para
obtener una separación más fina de las moléculas en cuestión.

Micro-ionoforesis
Una segunda aplicación es el uso de fuerzas eléctricas para lograr la aplicación controlada de
diminutas cantidades de una molécula dada, siempre y cuando ésta posea una carga neta (es
decir, esté ionizada). El principio es simplemente que si se toma una micro-pipeta y se llena
con una solución de la sustancia en cuestión, al pasar una corriente eléctrica entre la pipeta y el
baño externo esta corriente necesariamente refleja la migración de moléculas, que va a incluir
la eyección de la sustancia de interés (si la polaridad de la corriente es correcta!) En una
primera aproximación, el flujo obedece la Ley de Faraday:

J (∅ mol⋅s-1) = nI/zF
I es la corriente, z la carga de la molécula en cuestión, F la constante de Faraday (si corriente
se mide en amperios = coul×s-1 y F = coul×mol-1, entonces I/zF es número de mol de carga z
que fluye por segundo). El parámetro n se conoce como el número de transporte y representa
la fracción total de la corriente que es llevada por la molécula de interés: por supuesto ésta no
será la única clase de molécula ionizada en la pipeta (debe existir un contra-ión, para respetar
la condición de electro-neutralidad) ni en el baño externo. Por consiguiente, la corriente total
implica la movilización también de otras especies; moléculas que se desplacen con mayor
facilidad (por ejemplo, por ser pequeñas y/o con una gran carga eléctrica) o que estén
presentes en grandes concentraciones harán una contribución dominante al flujo total. Por lo
tanto, es imprescindible poder cuantificar cuál porción de la corriente es llevada por la sustancia
que se quiere aplicar. Pero una vez se
conozca dicho parámetro, esta técnica
brinda la oportunidad de producir
inyecciones finamente controladas (por
ejemplo, al interior de una célula
individual, o cerca de un punto específico
en la superficie de una célula), de una
forma que sería difícil de lograr por
aplicación a presión. La Figura 7.3A
muestra esquemáticamente el arreglo:
una micro-pipeta de vidrio llena de una
solución que contiene la sustancia
ionizada de interés se conecta a un
generador de corriente (simbolizado por
los dos círculos sobrelapantes). (B) Muller y Remy, JOVE 2013
Cuando éste se prende, la corriente (I) Figura 7.3

32
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

es llevada parcialmente por las moléculas bio-activas, que salen del orificio de la pipeta. En el
ejemplo ilustrado por los paneles (C) se observa una delgada rama dendrítica de una neurona,
visualizada gracias a un colorante fluorescente rojo; una pipeta de micro-ionoforesis (delineada
por las líneas blancas) se coloca a diferentes distancias, y breves pulsos eléctricos permiten
eyectar localmente y de una manera controlada una sustancia neurotransmisora (glutamato).
Los paneles D muestran las respuestas eléctricas obtenidas al registrar los cambios del voltaje
de membrana de la célula, recalcando la exquisita sensibilidad a la ubicación espacial del
estímulo químico aplicado.

33
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

8. Mediciones bio-eléctricas e instrumentación

En esta sección se mirarán de una manera elemental los principios técnicos que hacen posible
medir fenómenos bioeléctricos generados por muchos tipos de células del organismo.

Medición de voltaje.
Todo acercamiento que pretende medir una variable se esmera de no alterar significativamente
la variable que pretende cuantificar, de lo contrario el resultado obtenido es ficticio. Lo mismo
es válido en las mediciones eléctricas. En el caso del voltaje, sabemos que una diferencia de
potencial eléctrico entre dos regiones en el espacio implica que existe una distribución
asimétrica de carga eléctrica. Si no se quiere perturbar este estado de cosas, el sistema
utilizado para medir, compuesto por el voltímetro o electrómetro y las dos sondas que
establecen contacto eléctrico con los dos puntos en cuestión, no
deben proporcionar un camino por el cual esas cargas
encuentren la manera de fluir y re-distribuirse. Esto implica que
el voltímetro debe tener una resistencia interna (Rin) muy alta.
Las sondas simplemente se colocan a contacto de los dos
puntos del circuito, cuya diferencia de potencial se quiere medir
(Figura 8.1). Este instrumento, estrictamente hablando, mide el
voltaje presentado a su entrada, no el valor que existe en el
punto donde la sonda hace contacto con la muestra; por lo
tanto, las sondas deben garantizar buen contacto eléctrico con
la muestra, y su resistencia debe ser mucho menor que la
resistencia interna del voltímetro, de lo contrario se forma un
circuito de divisor de voltaje (repasar el concepto, presentado Figura 8.1
anteriormente!), y por consiguiente el voltaje reportado por el
voltímetro sería solamente una fracción del voltaje verdadero. La
Figura 8.2 ilustra el problema, suponiendo que una de las dos
sondas (usualmente un simple cable de muy baja resistencia),
tuviera en cambio una resistencia considerable (Rs). En la
entrada 1 del voltímetro (IN1) el voltaje experimentado por el
instrumento ya no será el valor que se tiene en el punto que se
quería medir (A), sino un valor modificado por el cociente entre la
resistencia de acceso y la resistencia total del sistema. En
circunstancias normales estas consideraciones son innecesarias,
ya que las sondas son unos cables que conducen muy bien la
electricidad. Pero en ciencias bio-medicas este problema surge
cuando se miden potenciales en dominios microscópicos, porque
Figura 8.2 en esos casos la sonda también necesita ser muy fina, y por
consiguiente su diminuta área de sección implica una muy alta
resistencia eléctrica (repasar sección sobre resistencia!) que podría llegar a niveles
comparables a la del instrumento (que, como ya sabemos, de por sí debe ser alta), y generar
una división de voltaje. En una sección posterior se considerará el caso de mediciones del
voltaje que existe a través de la membrana celular, con lo cual es imprescindible insertar un
electrodo de minúsculas dimensiones en el interior de una célula individual. Para estas
aplicaciones es entonces indispensable que la entrada del instrumento utilice un tipo de
transistor especial (llamado transistor de efecto de campo, o FET) que tiene una resistencia de
entrada extraordinariamente alta (billones de Ohms) y por lo tanto seguramente mayor que la
de un microelectrodo, por fino que sea. Notar también que el sistema de medición se introduce
sin alterar el circuito en cuestión, es decir, se añade en paralelo a éste.

34
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

Medición de corriente
Para medir la corriente que fluye por un cierto tramo de un
circuito (incluyendo tejidos, etc.) es imprescindible saber que
toda esa corriente pase por el instrumento (llamado
amperímetro) y esto requiere abrir el circuito en cuestión (el
corte que en la Figura 8.3 se representa por la línea
punteada) e introducir las sondas y el amperímetro como
único camino posible: en otras palabras, se trata de introducir
el instrumento en serie con el circuito, desviando el flujo
original de corriente. Además, se quiere que el instrumento
no altere la cantidad de corriente que fluye normalmente, y
por consiguiente su resistencia debe ser lo más baja posible
(lo opuesto que para voltaje).
Figura 8.3

Amplificación
Las señales eléctricas relevantes en un contexto biológico suelen ser muy pequeñas: los
voltajes trans-membrana no alcanzan una décima de voltio, mientras que los potenciales
extracelulares son del orden de fracciones de milésima de voltio. Por otra parte, las corrientes
eléctricas generadas por las células y los tejidos son igualmente diminutas: millonésimas a
billonésimas de amperio (la única excepción está dada por los órganos eléctricos de algunos
organismos acuáticos, que usan fuertes descargas para poner fuera de combate a presas y
enemigos). Así que poder agrandar señales bioeléctricas es una necesidad, y el uso de
amplificadores es pan de cada día para muchas áreas de la fisiología. Un amplificador, en
esencia, es un aparato que presenta dos entradas y una salida; el voltaje que se produce en la
salida es proporcional la diferencia de voltaje aplicado a las dos entradas, multiplicado por un
factor de ganancia, G:

Vout = (IN+ - IN-)×G

Se acostumbra representar un amplificador simbólicamente como un triángulo, como ilustra la


Figura 8.4 (la designación “+” y “-“ de las dos entradas sólo
sirve para indicar que para generar el voltaje de salida se resta
el valor aplicado a IN- del valor aplicado a IN+, y no viceversa).
Para poder funcionar, un amplificador necesita ser alimentado
por una fuente de poder, es decir, es un elemento ‘activo’ (en
contraste con las resistencias y los condensadores, que son
componentes ‘pasivos’, ya que funcionan sin necesitar
alimentación eléctrica). Debido a que la fuente de poder
suministra al amplificador un voltaje de alimentación
determinado (indicado por las dos líneas verticales en la Figura
8.4), el voltaje de salida del amplificador no puede exceder
Figura 8.4
esos valores (de hecho, normalmente se queda
significativamente corto!). Por ejemplo, si un amplificador funcionara con una pila de 9 V, no se
puede esperar que produjera un voltaje de salida de 24 V; por lo tanto, hay que considerar
siempre el tamaño de la señal de entrada (i.e. la diferencia de potencial entre las dos entradas),
y el factor de ganancia, para evitar que el amplificador se sature, es decir, llegue a su máxima
capacidad y se quede allí mientras lo que se le pide exceda dicho límite. En el ejemplo ilustrado
por la Figura 8.5, el voltaje de entrada (línea azul) es una ‘rampa’ que crece gradualmente
desde 0 hasta 2 V y la ganancia del amplificador es de 10×; cuando el voltaje de entrada llega

35
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

0.9 V la salida ya estará saturada (0.9×10 = 9 V sería el


máximo teórico en este caso, si el voltaje de alimentación
es 9 V), y de allí en adelante aunque el voltaje de entrada
siga creciendo, el de salida (línea roja) permanecerá
‘anclado’ a su límite (“Saturación”), en lugar de crecer
ulteriormente según el factor nominal de amplificación
(“Predicho”). La ganancia del amplificador se elije por lo
tanto de acuerdo con las características de la señal de
interés: un potencial de acción, por ejemplo, tiene una
amplitud total de ≈100 mV, y con una ganancia de 10×
sería un voltio, lo cual es fácil medir con cualquier
instrumento. En cambio, los potenciales evocados en el
cerebro y medidos desde la superficie del cráneo pueden
Figura 8.5 ser do 100 μV, con lo cual para tener una amplitud
comparable al caso anterior la ganancia debería ser de
10000.

Un amplificador tiene limitaciones también en cuanto a su rapidez: debido a que requiere un


tiempo finito para cambiar su voltaje de salida de un nivel a otro, una señal aplicada a su
entrada que fluctúe demasiado rápidamente podría no verse representada adecuadamente en
la salida: el amplificador no alcanzará a ‘seguirla’. El parámetro que caracteriza la velocidad de
un amplificador es el ancho de banda, y usualmente se define haciendo referencia a señales de
entrada sinusoidales (senos o cosenos). Si un amplificador tuviera un ancho de banda de 50
KHz, entonces una señal sinusoidal que oscilara con frecuencia de menos de 50000
ciclos/segundo se amplificará según la ganancia nominal del instrumento, pero una que fuera
significativamente más rápida se verá considerablemente atenuada.
Amplificadores operacionales
A continuación se introducirá el concepto (y la utilización) de amplificadores operacionales,
circuitos integrados constituidos por muchos transistores y componentes pasivos en un solo
‘chip’ de silicón. Éstos constituyen módulos flexibles que permiten, con sólo añadir unos pocos
componentes pasivos externos, implementar variadas configuraciones aptas para realizar una
amplia gama de funciones. Su recurrencia es tan ubicua en tantas aplicaciones (incluyendo
muchos tipos de mediciones biofísicas, especialmente en electrofisiología), que se justifica el
esfuerzo invertido en dilucidar sus características más básicas. Un amplificador operacional
(abreviado OpAmp), como todo amplificador, produce un voltaje a la salida que representa la
diferencia de voltaje aplicado a las dos entradas, multiplicado por un factor de ganancia; pero,
en ausencia de ulteriores conexiones y componentes, un OpAmp tiene las siguientes
características:

• Resistencia de entrada (Rin, la resistencia entre los dos terminales de entrada) → ∞


(en términos reales, se trata de valores muy altos, del orden de de 1012 a 1015 Ω)

• Ganancia → ∞ (de nuevo, es una idealización; al acto práctico es un número finito


muy grande, del orden de 105 o 106)

• Impedancia de salida muy baja: el OpAmp es capaz de proveer corrientes de tamaño


significativo en su salida, lo cual le permite actuar sobre aparatos que requieren
mucha corriente.

36
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

Parecería que un factor de ganancia tan alto hace inútil un amplificador operacional, ya que con
el más mínimo voltaje de entrada (digamos, 1 mV) la salida seguramente va a exceder
ampliamente el rango posible del aparato (el cual, como hemos visto, no puede ser mayor que
el voltaje que alimenta el circuito mismo, usualmente ±10 o ±15 V); por lo tanto uno esperaría
que con la más mínima perturbación en el input, el output quedaría en saturación, atascado al
máximo voltaje que es capaz de generar. Esto no tendría utilidad alguna; sin embargo, el
circuito es ‘domado’ introduciendo un camino de retroalimentación negativa (‘feedback’
negativo), lo cual se logra conectando la salida del amplificador a la entrada ‘negativa’ (IN-); el
efecto es que se aplica a dicha entrada un voltaje que neutraliza la discrepancia con respecto a
la otra entrada. Al hacerlo, el circuito se torna
estable, y su salida guarda una relación útil con la
entrada, dependiendo de la naturaleza de las
conexiones y los componentes utilizados en la
retroalimentación negativa. Por ejemplo, se puede
generar un amplificador con una ganancia
controlada y razonable (bien sea que invierta o no
invierta la señal), o un amplificador que convierta
una corriente en un voltaje, un amplificador que
integre en el tiempo la señal de entrada, etc.
Examinemos algunas configuraciones clásicas. En
todos los casos el análisis se basa en el hecho de
que la retroalimentación negativa hace que el
potencial en los dos puntos de entrada se mantiene
a todas horas al mismo nivel (esto es válido
ignorando breves instantes de transición...); el
porque es obvio: si el voltaje en IN+ se torna más
positivo que el de IN-, Vout se volverá positivo
(recuerden que Vout = [IN+ - IN -]×G), y al aplicárse
el voltaje de salida a IN- se neutraliza la diferencia.
Viceversa, si IN+ es más positivo que IN-,
inmediatamente Vout se vuelve negativo, y la acción
correctiva de nuevo anula las diferencias entre las
dos entradas. Sabiendo esto, en general sólo hace
falta usar la ley de Ohm y el concepto de divisor de
voltaje para entender exactamente el
comportamiento de un circuito, o para diseñar un
circuito que cumpla con las especificaciones
precisas que uno requiere. La figura 8.6A ilustra un
caso particular, conocido como amplificador
invertido. Debido a que IN+ está conectado a tierra
(en la figura se indican las dos entradas del
OpAmp simplemente como “+” y “-“), la entrada IN-
también se encontrará siempre a 0 V (tierra), es
decir al mismo potencial que IN+, por el motivo ya
explicado. La corriente que fluye desde la fuente de
la señal a través de la resistencia Rin es igual, por
la ley de Ohm, al voltaje de la señal dividido por la
resistencia de entrada: I = Vin/Rin. Esta corriente
sólo puede seguir su camino por la resistencia Rf,
ya que la resistencia de entrada del OpAmp es
supremamente alta. Por consiguiente, Vout, siendo Figura 8.6

37
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

la diferencia de voltaje entre los terminales de Rf, será –IRf (de nuevo, por la ley de Ohm). El
signo negativo se debe a que si la corriente fluye desde la fuente de la señal hacia tierra
(virtual), y de allí hacia la salida del OpAmp, debe ser que el potencial en los dos extremos del
recorrido tiene polaridad opuesta. Una manera sencilla de visualizar la situación es viendo que
las dos resistencias, Rin y Rf, forman un divisor de voltaje cuyo punto medio se mantiene a 0 V;
si un extremo (la señal) se torna positivo, el otro se vuelve negativo, y viceversa. Si las dos
resistencias fueran iguales, el valor absoluto de Vin y Vout sería el mismo, solo que la polaridad
sería opuesta. Si Rf fuera mayor, Vout sería más grande que Vin (y con el signo opuesto), ya que
a igual corriente el cambio de voltaje entre los terminales de una resistencia es proporcional a
su valor. En resumen, la relación entrada-salida estará dada por:

Vout = -Vin × (Rf/Rin)

La ganancia del circuito (G) está dada por el cociente entre las dos resistencias (G = Rf/Rin), lo
cual permite que una señal se agrande (si Rf/Rin > 1) o se achique (si Rf/Rin < 1). La resistencia
de entrada del amplificador en esta configuración es Rin (la resistencia que la señal ha de
cruzar para fluir al potencial de tierra).

Como construir un amplificador que no invierta la señal? Intuitivamente, es obvio que ésta
deberá aplicarse a la entrada IN+ (en lugar de IN-). La Figura 8.6B muestra el esquema de un
amplificador no-invertido. La señal entra directamente a IN+. Por retroalimentación, V- se
mantiene también al mismo potencial que Vin. Aquí IN- es el punto medio de un divisor de
voltaje, y podemos hacer un razonamiento análogo al caso anterior: la corriente que fluye por
Rin es I = Vin/Rin. Esa misma corriente fluye por Rf, así que la diferencia entre Vout y IN- es I×Rf.
Entonces Vout = Vin+I×Rf. = Vin + (Vin/Rin )×Rf, decir:

Vout = Vin(1+Rf/Rin)

El factor de ganancia es:

G = Vout/Vin = 1+Rf/Rin

Notar dos diferencias respecto al caso anterior (aparte el hecho de que la polaridad de la salida
no se invierte): en primer lugar, la ganancia mínima tiende a 1, en el caso límite cuando
Rf<<Rin. En segundo lugar, la resistencia de entrada del circuito esta dada por la del OpAmp, la
cual sabemos que es extremadamente alta.

Ahora consideremos el circuito de la Figura 8.6C. Evidentemente, debido a que la conexión


entre la salida y la entrada IN- es directa, Vout = Vin; pero por retro-alimentación, IN- = IN+
(donde se aplica la señal), por lo tanto Vout mantiene el mismo voltaje que la señal de entrada.
Esta configuración se llama seguidor de voltaje. De que nos sirve un circuito que produce en la
salida una réplica exacta de la señal aplicada a la entrada? No es para nada tan inútil como
podría parecer, de hecho este circuito abrió las puertas a la posibilidad de realizar mediciones
intracelulares, como se entenderá más tarde: este circuito evidentemente tiene alta resistencia
de entrada, y por lo tanto no ‘drena’ la fuente de la señal cuando ésta sea muy débil (piensen
en los potenciales bioeléctricos generados por una célula diminuta); en cambio, en su salida
replica la misma señal pero con capacidad de generar buena corriente. Más tarde veremos que
esta característica también permite minimizar errores de medición cuando el acceso a la
muestra de debe dar a través de una sonda que tiene alta resistencia.

38
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

Uno podría tener interés en determinar y amplificar no simplemente el nivel de potencial de una
fuente sino la diferencia entre dos señales. En este caso, las dos señales se aplican a las dos
entradas, respectivamente, y las resistencias adicionales establecen la ganancia, dada por G =
Rf/R1, como ilustra la Figura 8.6D. En esta configuración se mantiene simetría entre los dos
caminos, poniendo R1=R2 y Rf=R3. Este se llama un amplificador diferencial y tiene importantes
aplicaciones en electrofisiología.

Finalmente, consideremos el circuito ilustrado el la Figura 8.6E. El punto IN- se mantiene a 0, y


no hay resistencia alguna que se interponga entre la fuente de la señal y tierra (‘tierra virtual’).
Si la fuente fuera un generador de corriente, I, esta fluiría a tierra sin impedimento alguno. Cuál
es el valor de Vout? Claramente I debe fluir por Rf, ya que la entrada del OpAmp presenta una
resistencia prohibitivamente alta. Entonces Vout= I×Rf. Es decir, hemos creado un conversor
corriente-voltaje, cuyo factor de conversión está determinado por el valor de Rf: entre más alto
Rf, mas sensible el conversor (mayor el voltaje de salida para un tamaño dado de la corriente a
la entrada).

En esta breve reseña hemos esbozado las más comunes configuraciones de amplificadores
operacionales. Muchas funciones específicas (e.g. registrar un voltaje con una ganancia y una
resistencia de entrada prescrita, generar un estímulo eléctrico, cuantificar una corriente, etc.) se
pueden lograr de esta manera.

Mediciones eléctricas en células


La importancia de los principios de la electricidad para el estudio de sistemas biológicos radica
en que toda célula mantiene un potencial eléctrico entre el interior y el exterior de la membrana;
es más, esta carga puede movilizarse bajo el control de varios estímulos, y producir un cambio
en la magnitud del voltaje que existe a través de la membrana. Estas señales eléctricas
constituyen el lenguaje biológico primordial, utilizado por los organismos para derivar
información sobre el mundo externo, procesarla, e iniciar acciones motoras. La aplicación de
principios de mediciones eléctricas a un contexto biológico y en particular a escala celular
requiere unas consideraciones especiales. Para la medición de diferencias de potencial o
corrientes a través de la membrana celular es indispensable disponer de dos sondas, una
intracelular y la otra extracelular. Mientras la segunda no presenta mayores obstáculos, una
sonda que se pueda insertar dentro de una célula de pocas micras sin producir daño sustancial
requiere más precauciones. Usualmente ésta se fabrica con un tubo capilar de vidrio, 1 a 2 mm
en diámetro, cuya sección central se calienta con un filamento candente hasta derretir el vidrio
(Figura 8.7A). Aplicando tensión a los dos extremos la porción derretida se adelgaza y
finalmente se separa en dos mitades, cuyas puntas son diminutas, del orden de 0.1 a 1 μm.
Estas micropipetas son lo suficientemente finas para penetrar una célula, bajo control por
micromanipulación y visualización por microscopio, sin afectar drásticamente sus funciones.
Puesto que el lumen del capilar permanece abierto, formando un minúsculo orificio en la punta,
al llenarlo con una solución electrolítica (e.g. 3 M KCl) se obtiene una sonda eléctricamente
conductiva con la cual establecer contacto con el citoplasma. Pero otro requisito igualmente
crítico es establecer el contacto entre el sistema electrolítico constituido por el medio
intracelular y el interior de la pipeta (en el cual la conducción eléctrica es iónica), con el cable
metálico que conecte el microelectrodo al amplificador (donde la conducción es electrónica). Si
no se toman medidas especiales, la interfase entre el metal y el líquido no conduce (un ión no
puede transformarse en un electrón o viceversa): solamente se podría cargar/descargar la
capacitancia de la superficie de la interfase (i.e. se formaría una doble capa cargada de
electrones - o ‘huecos’ - en el lado metálico, y iones en el lado líquido), lo cual podría servir
para señales transientes (AC) pero no habría transmisión DC. Para obviar esta dificultad se

39
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

Figura 8.7
fabrica un electrodo reversible que haga contacto con el medio electrolítico; éste está
constituido por un metal recubierto por una delgada capa porosa de una sal del mismo metal.
Esta sal debe ser poco soluble (de lo contrario, al entrar en contacto con el líquido, la capa se
disolvería, dejando solamente el metal expuesto), y el contra-ion debe ser una especie
representada en la solución electrolítica. Típicamente se usa plata (Ag) como metal, cubierto de
AgCl (ya que es poco soluble, y el Cl suele ser el principal anión presente en soluciones
fisiológicas). Esto permite la siguiente reacción reversible:
AgCl + e- ↔ Ag + Cl-

De esta manera, un electrón que viaje por el metal se combina preferencialmente con el Cl de
una molécula de AgCl (por ser el Cl más electronegativo) y el ión de Cl- resultante se
desprende y puede entrar en solución, llevando corriente en el medio líquido (y dejando atrás
un Ag). Viceversa, un ión de Cl- difundiéndose por el líquido hasta la interfase con el metal se
puede combinar con Ag formando AgCl, y el electrón que ‘sobra’ lleva la corriente por la matriz
metálica del cable (Figura 8.7B). Otros arreglos utilizan mercurio (Hg) en lugar de plata
(‘electrodos de calomel’).
La finísima punta de un micro-electrodo, necesaria para no inducir daño a la célula,
inevitablemente se acompaña, como ya se ha dicho, de una muy alta resistencia eléctrica
(desde unos cuantos Megaohms hasta
cientos de Megaohms). Esta situación
tiene repercusiones indeseables para la
fidelidad del registro eléctrico. En primer
lugar, el efecto de divisor de voltaje que
ya se ha analizado: al existir una
diferencia de potencial entre la punta del
microelectrodo (que muestrea el
verdadero potencial que existe en el
compartimiento intracelular) y el otro
lado, donde el alambre de Ag/AgCl hace
contacto con la solución salina, quiere
decir que el voltaje aplicado al input del
amplificador no es aquel que el
experimentador pretende medir. La Figura 8.8

40
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

Figura 8.8 ilustra este problema, que, como se ha mencionado, puede ser aliviado
cerciorándose de que la resistencia de entrada del amplificador sea aún más alta. Pero esta
precaución no evita un segundo problema. Un microelectrodo de vidrio está constituido por una
delgada pared de material aislante que separa dos medio conductivos (la solución salina dentro
del electrodo mismo, por una parte, y los fluídos electrolíticos en el exterior); como tal,
constituye un condensador (cuya capacitancia, Ce, tiene un valor que típicamente puede ser del
órden de unos 10 pF). Conjuntamente con la resistencia del electrodo, este arreglo forma un
filtro pasa-bajo, idéntico al que se analizó previamente (la señal del voltaje intracelular
encuentra primero la alta resistencia del electrodo, que se concentra en la punta donde el
diámetro es mínimo, y más arriba una capacitancia - donde la superficie de área del aislante es
mayor; el otro terminal de este condensador está conectado al potencial de referencia del
medio exterior, es decir, a tierra). Este arreglo implica que las señales transmitidas desde el
interior de la célula al amplificador están sujetas a una atenuación de frecuencias altas; por
consiguiente, transientes rápidos podrán ser significativamente atenuados, comprometiendo la
fidelidad del registro. Éste es el caso de los potenciales de acción, los breves impulsos
eléctricos producidos por células neuronales, los cuales constituyen la unidad primordial de
información del lenguaje eléctrico utilizado por el sistema nervioso. En el ejemplo de un
microelectrodo con Ce = 10 pF (10-11 F) y una resistencia Re = 100 MΩ (108 Ω) su constante de
tiempo sería 1 ms (τ = Re×Ce = 10-3 s); quiere decir que un potencial de acción que alcance su
pico máximo en menos de un milisegundo, se verá aparentemente reducido a un ≈63% de su
de amplitud real; para obviar estas deficiencias se han desarrollado varias estrategias que bien
sea reducen la constante de tiempo del microelectrodo (reduciendo su resistencia y/o su
capacitancia), o compensan electrónicamente la pérdida de frecuencias altas.

Principios de registro eléctrico extracelular


El estudio riguroso de los potenciales bioeléctricos necesariamente implica el uso de sondas
intracelulares (microelectrodos, a los cuales ya aludimos). Sin embargo, aunque estos
enfoques proporcionan la información más detallada y precisa, su naturaleza invasiva, delicada
y técnicamente compleja los hace no aptos para monitorear la actividad global de un órgano
constituido por un enorme número de células eléctricamente activas, ni tampoco para el uso
rutinario con fines diagnósticos en la práctica clínica. Otros acercamientos modificados han
permitido desarrollar alternativas más sencillas que proporcionan suficiente información para
ser de gran utilidad en fisiología y en medicina. Todos estos comparten dos características
fundamentales: (i) hacen uso de electrodos extracelulares, típicamente aplicados a la superficie
del cuerpo (ii) reportan la actividad eléctrica de poblaciones de células, en lugar que de células
individuales. Para entender como esto ha sido posible, es preciso examinar primero que todo el
porqué habría de funcionar una medición que solo compare la diferencia de potencial entre dos
electrodos, cuando ambos están localizados afuera
de la(s) célula(s) cuya actividad se desea
monitorear. Claramente, en condiciones de reposo
ambos electrodos verían el mismo potencial, y la
salida del amplificador será cero. Pero si una(s)
célula(s) manifiesta(n) actividad eléctrica, debe ser
que alguna corriente está cruzando la membrana.
Consideremos la célula representada
esquemáticamente en la Figura 8.9 y asumamos
que en una cierta región se ha activado algún
mecanismo que permite localmente el flujo de una
corriente, digamos que entrando al interior de la
célula (en el ejemplo se representa la entrada Figura 8.9

41
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

activa de corriente en proximidad de una sinapsis, a la derecha). Que ocurre con esas cargas?
Claramente no pueden permanecer en el sitio de entrada, porque, al amontonarse, el potencial
electroestático que se generaría tendería a producir una repulsión mutua. Así que deben
circular en el interior de la célula; pero en cualquier lugar el mismo problema se volvería a
presentar, de tal forma que la única posibilidad es que en última instancia las cargas vuelvan a
salir al exterior. Más específicamente, hay que hacer una distinción: anteriormente se había
esbozado el concepto de condensador (una delgada capa aislante entre dos conductores) el
cual acumula carga de acuerdo a Q=CV, y se había aludido a la membrana celular como un
condensador. Entonces, si la entrada de las cargas ha de cambiar el voltaje de la membrana,
necesariamente una fracción de ellas se irá a cargar el condensador (donde no hay problema
de repulsión porque esas cargas se atraen/neutralizan con las de polaridad opuesta al otro lado
de la membrana), el resto en cambio efectivamente encuentra una ruta de salida. Una vez
afuera, nuevamente la misma situación se presenta: deben seguir fluyendo. Hacia adonde? A
las regiones donde, por así decir, escasean (i.e. donde el potencial opuesto las atrae), lo cual
viene siendo la ruta inicial de entrada! En otras palabras, la corriente simplemente circula
completando un recorrido cerrado, exceptuando aquella fracción de cargas tomadas por la
capacitancia de la membrana (en la figura se ilustra un solo camino, pero en realidad la
corriente fluirá de una manera distribuida). Estamos simplemente re-afirmando las leyes de
Kirkhoff. Ahora, lo que nos interesa enfatizar es que la activación de una célula (i.e. la
existencia, en un momento dado, de una corriente neta que cruza su membrana para producir
un cambio de voltaje) necesariamente está acompañada por un flujo concomitante de corriente
que circula en el medio exterior de la célula, es decir por los fluidos intersticiales. Es este
aspecto que subyace las técnicas de registro eléctrico
extracelular: la ley de Ohm nos dice que entre dos puntos
existirá un voltaje ΔV = I⋅R. Por lo tanto, como se ilustra en la
Figura 8.10A, dos electrodos que muestrearan dos puntos de
ese espacio podrán revelar una diferencia de potencial durante
un episodio de actividad eléctrica, siempre y cuando haya una
corriente neta que fluya entre esos dos puntos. Por otra parte,
si ante el mismo patrón de corriente colocáramos nuestro par
de electrodos en una dirección ortogonal a la de la corriente
(Figura 8.10B), entonces no habrá diferencia de potencial
alguna reportada por los dos electrodos, ya que ninguna
corriente fluye entre las dos regiones muestreadas. Si
consideramos el conjunto de curvas que interceptan a 90˚ las
líneas de flujo de corriente (como, por ejemplo, las líneas
puntuadas en la figura 8.10), a lo largo de cada una de ellas no
fluye corriente alguna, y por lo tanto todos sus puntos se
Figura 8.10 encuentran al mismo potencial eléctrico: las llamamos curvas
isopotenciales. En el caso más general, quiere decir que dos
electrodos ubicados en dos puntos del dominio espacial, llamémoslos A y B, podrán detectar
una diferencia de potencial proporcional a la magnitud de aquel componente de la corriente que
fluye en la dirección del eje imaginario que une a los dos puntos. Si la corriente total en esa
región fuese representada por un vector, esa cantidad estaría dada por la proyección del vector
sobre el eje A-B; cuantitativamente, eso representa M⋅cos(α), M siendo la magnitud de la
corriente y α el ángulo entre el vector del flujo neto de corriente y el eje que une los dos
electrodos. Es lo mismo que decir el ‘producto punto’ entre los dos vectores. La Figura 8.11
ilustra este concepto: en un medio homogéneo está fluyendo una corriente I, representada por
la flecha verde diagonal; dos electrodos, A y B, miden la diferencia de potencial entre dos
puntos de ese medio. La línea imaginaria que une los dos electrodos (el eje de los electrodos)
forma un ángulo α con respecto a la dirección del vector de la corriente. Proyectando este

42
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

último sobre el eje de los electrodos obtenemos el


componente de I en la dirección entre A y B, llamémoslo la
‘corriente efectiva’, Ieff o IA,B (ya que viene siendo la porción
de la corriente total que fluye entre A y B). Entonces, por la
ley de Ohm, la diferencia de potencial entre A y B será la
magnitud de IA,B multiplicada por la resistencia entre esos
dos puntos, RA,B. Lejos de ser una desventaja, podemos
aprovechar el hecho de que nuestro registro depende de la
orientación relativa entre el flujo de corriente y el eje del par
de electrodos para reconstruir la pauta de actividad eléctrica
en el dominio de interés: por ejemplo, si colocáramos dos
pares de electrodos (A-B y A’-B’) perpendicularmente
Figura 8.11 alrededor de una región de tejido, y uno mostrara en un
momento dado una diferencia de potencial mientras que el
otro no, podríamos concluir que existe actividad eléctrica la cual se manifiesta en un flujo neto
de corriente orientado en la dirección del eje de uno de los dos pares de electrodos (y, por
supuesto, ortogonal al otro). Si ambos pares reportaran la misma magnitud de voltaje, la
corriente estaría fluyendo a 45° respecto a los dos ejes de los pares de electrodos, y así
sucesivamente.

La señal registrada dependerá no solamente de la dirección de la corriente respecto a la del eje


de los electrodos, sino también de la distancia entre electrodos y el foco en el cual se origina la
actividad eléctrica. Supongamos que en un dominio de 3 dimensiones (un conductor de
volumen) hubiera dos puntos, P1 y P2, con potencial eléctrico diferente: las líneas de flujo de
corriente se extienden en todo el espacio alrededor, pero su densidad disminuye al alejarse de
la fuente de actividad eléctrica (en otras palabras, habrá más corriente que fluye por el camino
directo entre P1 y P2, comparado con el flujo que toma una vuelta más larga, alejándose de
dichos puntos. El motivo es obvio: recorridos más largos
implican una resistencia mayor (asumiendo homogeneidad
del medio) y por lo tanto menor corriente (I = V/R). Por
consiguiente, al colocar el par de electrodos a distancias
progresivamente mayores con respecto a la fuente de la
actividad eléctrica uno observaría una menor amplitud de la
señal registrada. La Figura 8.12 muestra un hipotético foco
de actividad representado por un polo positivo y un polo
negativo. Líneas rojas representan flujo de corriente; hay
más líneas que toman el camino directo, mientras que las
que toman recorridos más y más alejados son
progresivamente más escasas. Consideremos dos pares de
electrodos utilizados para medir el voltaje. El primero, A y B,
se encuentra lejos del foco de actividad, y por consiguiente la
densidad de corriente en esa región es baja. El segundo, A’ y
B’, está cerca de los polos, donde la densidad de corriente es
mayor. La distancia entre cada par de electrodos es igual, y,
asumiendo que el medio es homogéneo, la resistencia entre
A y B será entonces idéntica a la resistencia entre A’ y B’.
Puesto que el voltaje reportado por cada par de electrodos es
I×R, a igualdad de resistencia la mayor cantidad de corriente
entre los puntos muestreados por A’ y B’ hace que el medidor
correspondiente de voltaje indique una señal más grande. La Figura 8.12
dependencia de la amplitud de la señal con respecto a la

43
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

distancia de la fuente sugiere que, teniendo distintos electrodos (o desplazando un mismo par
de electrodos) podemos derivar información acerca de la localización del foco de actividad.
Estas consideraciones indican que el arreglo geométrico de los electrodos respecto a la
ubicación de la fuente de actividad eléctrica es un factor determinante para registrar una señal
extra-celularmente: la comparación entre muchos pares de electrodos que muestreen la misma
región pero con una orientación diferente de sus respectivos ejes y, por supuesto, diferentes
posiciones en el espacio, nos puede informar acerca de la proximidad del foco de actividad, y la
dirección del flujo de corriente. Tales consideraciones implican que eligiendo un conjunto
adecuado de electrodos colocados en la superficie del conductor de volumen es posible
reconstruir muchos aspectos del patrón espacio-temporal de actividad eléctrica en esa región y
detectar la ubicación de los focos de actividad. Esta es precisamente la lógica que subyace el
registro de la actividad eléctrica cardíaca (electrocardiograma, o ECG) y cerebral
(electroencefalograma, o EEG). Hay que considerar que las corrientes generadas por la
actividad de células individuales son muy pequeñas y por consiguiente sus respectivos campos
eléctricos resultan diminutos. La posibilidad de detectar extra-celularmente actividad bio-
eléctrica se incrementa en la medida de que estas contribuciones individuales se sumen, lo
cual requiere (i) actividad sincronizada en el tiempo, (ii) que involucra grandes números de
elementos, (iii) en tejidos en los cuales haya un orden en la disposición geométrica de las
células (e.g. orientación similar en el espacio, para que los campos eléctricos no tiendan a
anularse mutuamente). Es por estos motivos que la actividad eléctrica rítmica del corazón y del
cerebro han sido particularmente propicias para implementar este tipo de acercamiento. La
Figura 8.13A ilustra
esquemáticamente la
ubicación de tres de los
electrodos usados para el
registro estándar de la
actividad cardiaca de un
sujeto humano; en el panel
B se muestran los trazos
obtenidos al registrar el
potencial entre pares de
electrodos en las tres
combinaciones posibles
(‘derivaciones’ I, II, y III).
Figura 8.13

44
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

El osciloscopio
Uno de los instrumentos de mayor utilidad para mediciones eléctricas es el osciloscopio,
aparato que proporciona de una manera gráfica una medida de voltaje en función del tiempo.
Para ese fin se utiliza un tubo de rayos catódicos, parecido a los de los televisores análogos, el
cual tiene una forma aproximadamente cónica
o piramidal: en el ápex, el extremo más
estrecho, se encuentra un filamento que, al
conectarse a una fuente de voltaje (VF), se
calienta (Figura 8.12). El extremo opuesto (la
base del cono o de la pirámide) está
recubierto internamente con una molécula
usualmente referida como ‘fósforo’, e.g. P1,
P22, etc. (pero en general se trata de un
compuesto de zinc y otros elementos que ni
siquiera contienen fosforo!), y estos recubren
la pantalla del instrumento. Además, en los
Figura 8.12
dos extremos también se encuentran dos
rejillas metálicas, las cuales se mantienen a potenciales muy diferentes (VA, que tiene valores
de hasta miles de voltios): la del lado del filamento es negativa (el cátodo) la del lado de la
pantalla es positiva (el ánodo). Con esto se establece un fuerte campo eléctrico orientado
longitudinalmente al interior del tubo. Al ponerse incandescente el filamento, la agitación
térmica de las moléculas del metal es suficiente para que continuamente algunos de los
electrones se desprendan de sus respectivos núcleos. Estos electrones libres son acelerados
fuertemente por el campo eléctrico en la dirección de la pantalla, contra la cual se estrellan. Su
energía cinética es tal que la colisión con las moléculas de fósforo lleva a éstas últimas a un
estado de excitación electrónica (los electrones externos brincan a un orbital superior) el cual
es de muy corta duración, y al devolverse la molécula al estado inicial disipa el excedente
energético con la emisión de un fotón de luz visible. Por consiguiente, si un chorro continuo de
electrones chocara contra el mismo lugar de la pantalla, el observador al frente de la pantalla
vería un punto luminoso fijo. El resto del aparato consiste en circuitos para controlar
espacialmente este haz de electrones, con lo cual se logra desplazar arbitrariamente la
posición del punto luminoso en la pantalla. Un par de placas metálicas horizontales en la mitad
del camino, una por encima y la otra por debajo del eje
del tubo, permite que al aplicárseles una diferencia de
voltaje, se induzca una deflexión al rayo: si la placa
superior fuera más positiva que la inferior, los electrones
no solamente serían sometidos al campo longitudinal que
los acelera hacia la pantalla, sino que al cruzar la zona de
las placas experimentarían simultáneamente una fuerza
transversal que los desviaría hacia arriba. Es decir, la
resultante de los dos vectores de fuerza sería una
trayectoria inclinada. Si el voltaje fuera opuesto, la
desviación será hacia abajo. Por consiguiente la
ubicación del punto luminoso en la pantalla cambiará en
la dimensión vertical (el eje Y), dependiendo de la
polaridad y de la magnitud del voltaje aplicado a las
placas horizontales de deflexión. La Figura 8.13 ilustra
este arreglo. Lo mismo se puede lograr en cuanto a
Figura 8.13

45
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

desplazar el punto luminoso horizontalmente; en este caso, un segundo par de placas


metálicas colocadas verticalmente causarán un desplazamiento del haz de electrones en el eje
X (Figura 8.14). Ahora, controlando los voltajes aplicados a los dos pares de placas de
deflexión, estamos en posición de ubicar el punto luminoso en cualquier lugar del plano X-Y de
la pantalla. En un osciloscopio la dimensión Y representa el voltaje, la dimensión X el tiempo.
Por lo tanto, necesitamos que el voltaje a ser medido produzca, a través de un amplificador, un
desplazamiento del punto luminoso que, por convención, es hacia arriba cuando el voltaje es
positivo, y viceversa. Ahora necesitamos que el desplazamiento horizontal represente el
tiempo. Para eso el punto debe moverse a una velocidad fija de izquierda a derecha y, al llegar
al extremo de la pantalla, devolverse y re-empezar. Esto se logra aplicando inicialmente un
voltaje que fuera más positivo en la
placa de deflexión vertical izquierda, y
cuyo valor fuera lo requerido para que
desviar el rayo ubicándolo inicialmente
en el margen izquierdo de la pantalla;
el voltaje debe luego disminuir
linealmente en el tiempo, hasta quedar
anulado (el punto luminoso se moverá
gradualmente hasta el centro de la
pantalla), luego seguir cambiando,
ahora con la placa derecha
volviéndose cada vez más positiva (lo
cual desvía el rayo hacia la derecha,
Figura 8.14 hasta que el punto luminoso llegue al
margen derecho). A ese punto dos
cosas ocurren: (i) el ciclo se repite, volviendo abruptamente al voltaje positivo en la placa
izquierda (ii) durante ese brevísimo intervalo el punto luminoso se apaga, para que no se vea el
trayecto de retorno. Estos cambios simplemente se obtienen conectando las dos placas a un
generador de ondas que produzca una señal cíclica en forma de ‘serrucho’ (representada por el
trazo azul en la Figura 8.14), e interrumpiendo momentáneamente el potencial del filamento al
final de cada ciclo para que cese transitoriamente el haz de electrones. Con esto tenemos lo
básico: el movimiento horizontal representa el tiempo, el vertical el voltaje. Si quisiéramos medir
voltajes más pequeños o más grandes, simplemente variaríamos la ganancia del amplificador
de entrada para que la deflexión vertical para un voltaje dado fuera mayor o menor. La perilla
de ‘Ganancia’ indica la calibración en mV/división,
referida a un retículo marcado en la pantalla misma,
cuyas líneas usualmente están a 1 cm de distancia una
de otra. De la misma manera, si quisiéramos discernir
eventos cuyo curso temporal fuera muy rápido,
aceleraríamos la velocidad de barrido horizontal, lo cual
simplemente implica utilizar una onda serrucho con una
pendiente mayor (más corto el tiempo para cruzar
horizontalmente toda la pantalla, y por lo tanto más ciclos
por segundo). La perilla de control de barrido (‘Time
Base’) tiene posiciones calibradas en segundos (o mili-, o
micro-segundos) por división.

Queda un último problema. Si se quisiera mirar un evento


que ocurre bien sea espontáneamente o bien en
respuesta a un estimulo aplicado por el experimentador,
Figura 8.15
sería deseable sincronizar el barrido con la ocurrencia del

46
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

evento de interés. De lo contrario, éste aparecería cada vez en distintas posiciones de la


pantalla, y sería difícil examinar sus características. La Figura 8.15 muestra un ejemplo típico
en neurofisiología, en el cual un estimulador aplica pulsos despolarizantes a una neurona a
través de un microelectrodo, mientras un segundo microelectrodo registra, a través de un
amplificador, los cambios de voltaje intracelular. Como sabemos, en un célula eléctricamente
excitable si el voltaje a través de la membrana se despolariza por encima de un cierto valor
umbral, se desencadena un rápido cambio impulsivo de voltaje, llamado el potencial de acción.
Quisiéramos examinar en detalle los potenciales de acción, pero, debido a que el barrido del
osciloscopio ocurre repetitivamente de una manera continua sin tener en cuenta cuando se
aplican los estímulos, los potenciales de acción ocurren aleatoriamente durante cada barrido, y
su posición horizontal en la pantalla es variable. Esto dificulta las mediciones. Pero podríamos
aprovechar el hecho de que el evento de interés es gatillado por un estímulo bajo el control del
experimentador: entonces, en lugar de dejar que el barrido ocurra repetitivamente de una
manera automática, utilizaríamos el modo de ‘gatillo externo’, en el cual el mismo estímulo que
desencadena el evento (en este caso, el pulso aplicado a la célula) se aplica también a una
entrada especial del osciloscopio (“Trigger”), e inicia cada vez un solo barrido (gatilla un solo
ciclo en el generador de onda de serrucho). Con lo cual
habrá siempre una relación temporal fija entre el inicio del
barrido y la ocurrencia del evento, el cual aparecerá por lo
tanto siempre en una posición determinada de la pantalla
(Figura 8.16). Cuando el evento no es controlado por un
estímulo explícito sino que ocurre espontáneamente, se
puede usar otra modalidad, en la cual el mismo evento a
ser medido también inicia el barrido. Esto se logra fijando un
umbral y cuando la variable a ser medida lo excede, se
gatilla el barrido. De nuevo, en la medida en que el evento
examinado tenga un curso temporal estereotipado, el barrido
empezará siempre en un punto fijo del evento, y sucesivas
repeticiones aparecerán en la misma posición de la pantalla
(aunque en esta modalidad uno perdería lo que ocurrió
Figura 8.16
antes de que la señal alcanzara el nivel-umbral).

En tiempos recientes los osciloscopios análogos, cuyos principios de funcionamiento se acaban


de esbozar, han venido siendo reemplazados por osciloscopios digitales. Su funcionalidad es
esencialmente la misma, pero en lugar de un tubo de rayos catódicos tienen una pantalla LCD
constituida por una matriz de ‘pixels’, y la electrónica de control emula el barrido del rayo
activando secuencialmente en diferentes puntos. Sus ventajas son unas dimensiones más
compactas, peso reducido, y posibilidad de procesamiento sofisticado de los datos adquiridos;
al mismo tiempo, aún padecen de algunas desventajas, como menor resolución gráfica, y
menor ancho de banda.

47
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

9. Ruido eléctrico.

La discusión de las dos secciones anteriores podría dejar la impresión de que nuestra
capacidad de extraer información representada por una señal eléctrica, por pequeña y/o rápida
que fuera, depende solamente de la disponibilidad de un amplificador con suficiente ganancia y
ancho de banda. En la realidad nos topamos con los límites impuestos por la presencia de
ruido eléctrico, fluctuaciones espurias de voltaje (o de corriente) que contaminan la señal de
interés.
Fuentes de ruido
Primero que todo, aclaremos un concepto básico: todo evento que podamos registrar
representa en realidad la superposición de dos componentes (i) la señal de interés y (ii) el
ruido. Es obvio que el tamaño relativo de los dos dictamina el grado de contaminación, y por lo
tanto la fidelidad con la cual recibimos la señal.. Esta relación se conoce como cociente
señal/ruido (S/R, o en Ingles S/N – signal-to-noise ratio) y es un parámetro crítico de la calidad
de una medición. En el caso en que la amplitud del ruido fuera mucho mayor que la de la señal,
podría resultar imposible para el observador percatarse de la señal misma. Cuando el cociente
S/R es muy pequeño, de nada nos sirve aplicar una ganancia alta a nuestra señal
contaminada: nuestro instrumento amplificaría de la misma manera tanto la señal como el
ruido, y por lo tanto no mejoraría nuestra capacidad de extraer información.
Hay muchos orígenes del ruido, y algunas instancias son susceptibles de ser corregidas. Por
ejemplo, en electricidad pueden existir diversas fuentes externas que producen señales
indeseadas, las cuales calificaríamos de ‘ruido’: motores eléctricos ubicados en proximidad de
un instrumento de medición, luces fluorescentes, emisoras de radio, etc. Uno logra reducir el
impacto se este tipo de ruido bien sea alejándose de la fuente de interferencia, o bien
escudando la señal de interés, protegiéndola de tales interferencias; esta estrategia se realiza
resguardando las sondas y los instrumentos de medición dentro de un compartimiento cerrado
cuyas paredes son conductivas y conectadas a tierra (una así llamada caja de Faraday). Sin
embargo, siempre queda un ruido residual que es ineludible, y hace parte intrínseca de la
naturaleza; como tal, establece el límite supremo de la detectabilidad. Este ruido se debe a lo
siguiente: en todo cuerpo en equilibrio térmico con su entorno las partículas están en constante
agitación aleatoria (el movimiento Browniano), que depende de la temperatura y refleja su nivel
de energía. Esto se aplica también a partículas eléctricamente cargadas, como los electrones
en una matriz metálica, o los iones en una solución. El carácter estocástico de dicho
movimiento implica que entre dos regiones del espacio se pueden congregar transitoriamente
cargas, resultando en diferencias de potencial fluctuantes. Pensemos en una simple
resistencia, cuyos terminales no están conectados a nada; el voltaje entre ellos será cero, pero
sólo en promedio: en cada instante dado, puede ser que varios electrones hayan brincado a un
átomo vecino a la izquierda, no contrabalanceados por un número exactamente igual de
electrones que hayan sufrido un desplazamiento en la dirección opuesta; lo mismo en una
solución electrolítica. El resultado será una momentánea separación de cargas positivas y
negativas, es decir, la creación de una diferencia de potencial eléctrico. No hay ninguna
tendencia sistemática que propicie una distribución asimétrica de carga, así que,
probabilísticamente, esta situación no perdurará sino que se compensará rápidamente; pero
instantes más tarde puede crearse un desbalance transitorio en la dirección opuesta, y así
sucesivamente. A lo largo del tiempo el voltaje promedio será nulo, sin embargo, se darán
constantemente breves desviaciones en una dirección y la otra, lo cual representa un voltaje
fluctuante alrededor de 0, con excursiones positivas y negativas de amplitud variable (entre
más grandes menos frecuentes, porque la probabilidad de que por simple azar ocurra un gran
número de desplazamientos netos en una dirección es muy baja – igual que la expectativa de

48
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

obtener una gran predominancia neta de ‘caras’ vs. ‘sellos’ al lanzar al aire un número
considerable de monedas). Entre mayor la temperatura, mayor la agitación térmica y mayor el
ruido. De la misma manera, si en lugar del voltaje estuviéramos monitoreando la corriente que
fluye por un corte de sección de nuestro objeto, veríamos una corriente fluctuante en ambas
direcciones, alrededor de 0. Si se midiera el ruido térmico como voltaje, éste aumenta con la
resistencia del objeto (cada desplazamiento de una carga repercute como un voltaje más
conspicuo si la resistencia es alta, ya que V =I×R); en cambio, el ruido de corriente decrece con
la resistencia, porque la facilidad de que una partícula cargada se desplace por un medio es
inversamente proporcional a la resistencia. El ruido eléctrico debido a la agitación térmica de
partículas cargadas se conoce como el ruido de Johnson-Nyquist. Este ruido está presente en
el objeto a ser medido (como en el ejemplo de la resistencia), pero también lo está en los
componentes de los circuitos del instrumento utilizado para medir: sondas, transistores, etc.
Todas nuestras mediciones inevitablemente están superpuestas a unas incesantes
fluctuaciones; cuando la señal de interés es muy grande, la contribución relativa de estas
fluctuaciones es mínima y a menudo ni siquiera somos conscientes de que existe esa
variabilidad de fondo. Pero en otras situaciones se pretende medir voltajes diminutos, como los
potenciales post-sinápticos producidos por la exocitosis de una sola vesícula cargada de neuro-
transmisor, o las corrientes iónicas mediadas por proteínas transportadoras individuales; en
estos casos la amplitud de la señal puede ser comparable a la del ruido térmico, y la tarea de
obtener información aceptablemente fiel e interpretable se torna ardua. Una estrategia general
para reducir la contaminación por ruido térmico es, por supuesto, bajar la temperatura; ésta es
la razón por la cual en ciertos instrumentos sofisticados utilizados en aplicaciones críticas,
algunos sensores o sub-circuitos son enfriados. De todas maneras, aunque se logran ventajas
considerables, no es posible la eliminación total del ruido térmico por enfriamiento (lo cual
requeriría alcanzar el cero absoluto), y de todas maneras ese abordaje está sujeto a diversas
limitantes: por ejemplo, al llevar a cabo una medición electrofisiológica no se puede enfriar un
espécimen a temperaturas arbitrariamente bajas, porque cesaría todo proceso vital!.
Reducción de ruido por filtros de frecuencias
Existen dos acercamientos que nos permiten recuperar en parte la calidad de la señal de
interés cuando ésta se encuentra contaminada por la presencia de ruido. El primero consiste en
hacer uso de filtros capaces de atenuar diferencialmente señales de diferentes características
temporales. El ruido térmico se caracteriza por excursiones que no solamente tienen amplitud
variable sino también rapidez variable, incluyendo transientes supremamente breves que
contribuyen a la variabilidad total. Si la señal de
interés tiene un curso temporal que no contempla
transiciones muy rápidas, podemos pasar el registro
total (señal + ruido) por un filtro pasa-bajos, el cual
descarta las fluctuaciones de más alta frecuencia.
Como ningún aspecto de nuestra señal tiene esas
características temporales, ésta queda prácticamente
intacta, mientras que buena parte del ruido es
eliminada. La Figura 9.1 muestra el efecto de un filtro
pasa-bajo ajustado a dos niveles progresivamente
más drásticos de corte de frecuencias altas
(rechazando frecuencias >200 y >50 Hz,
respectivamente); notar que, aunque el trazo se limpia
significativamente, fluctuaciones lentas sobreviven la
acción del filtro. Es preciso tener en cuenta que el
Figura 9.1 ruido no necesariamente concierne las frecuencias
más altas: por ejemplo, un investigador podría estar

49
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

interesado en estudiar el patrón de distribución temporal de potenciales de acción (los cuales


son de muy breve duración) en alguna área del cerebro. Esta actividad, si se registra mediante
electrodos, es de muy baja amplitud (en la escala de microvoltios a fracciones de milivoltios) y
se encuentra inevitablemente sumergida en las oscilaciones lentas de la actividad eléctrica del
cerebro – las así llamadas ondas
electroencefalográficas - que pueden tener una
amplitud comparable. Esto dificulta la extracción
confiable de los potenciales de acción, como por
ejemplo se podría desear lograr con un método
automatizado que contara como potencial de
acción toda excursión que cruzara un cierto
voltaje-umbral. De nuevo, es posible a través de
un filtro que rechaza selectivamente ciertas
frecuencias, obtener la separación o la
eliminación del componente indeseado. Sin
embargo, debido a que en este caso la señal de
interés está constituida por frecuencias altas Figura 9.2
mientras el ‘ruido’ contaminante está constituido
por frecuencias bajas, un filtro ‘pasa-altos’ puede ayudar. En la figura 9.2 se muestra como
dicho filtro deja las espigas intactas sobre una línea de base plana (trazo inferior), ya que ha
sido despojada de toda oscilación lenta. Podría además resultar deseable eliminar frecuencias
que son aún mucho más altas que las contenidas en los rápidos impulsos nerviosos - y por lo
tanto probablemente representan ruido. Un filtro pasa-banda con las dos frecuencias de corte
apropiadamente escogidas cumpliría dicha función satisfactoriamente.
En otras situaciones surge la necesidad de rechazar selectivamente una cierta frecuencia muy
específica: por ejemplo, las electrificadoras en el continente americano utilizan corriente alterna
de 60 Hz (en Europa se usa AC de 50 Hz). Muchos aparatos (lámparas fluorescentes, motores
eléctricos, etc.) irradian por lo tanto ondas de esa frecuencia, y esto hace que a menudo
señales y mediciones resulten contaminadas por ella. Se pueden diseñar filtros (llamados de
“notch”, que traduce ‘muesca’) capaces de pasar sin atenuación un amplio abanico de
frecuencias, pero rechazando una estrecha banda (la muesca que aparece en su espectro o
función de transferencia); un circuito de este tipo podría ‘limpiar’ una señal contaminada por
una interferencia de una frecuencia muy particular. Hay que enfatizar que el uso de estos
acercamiento requieres, como condición indispensable, que la señal y el ruido difieran en
cuanto a su respectiva composición de frecuencias constituyentes, de lo contrario cualquier
filtro afectará tanto el ruido como la señal.

Reducción del ruido a través de promedio de ensamble


Hay un segundo enfoque que se puede utilizar con señales que sean gatilladas por un
estímulo específico, bajo el control del experimentador, y cuyo curso temporal sea
estereotipado: aquí la estrategia es repetir numerosas veces la estimulación, desencadenando
cada vez la respuesta a ser registrada, y promediar los trazos obtenidos. Puesto que en todas
las instancias la señal se repite de la misma manera, mientras que las fluctuaciones del ruido,
siendo estocásticas, tienden a ocurrir fuera de fase en sucesivas repeticiones, la operación de
promediar va atenuando el ruido (transientes en diferentes direcciones se van cancelando),
mientras se preserva la señal (la cual tiene las mismas características en todas las
repeticiones). La Figura 9.3 muestra el ejemplo de un trazo de una señal ruidosa producida por
la aplicación de un estímulo, y el efecto de repetir y promediar 16 o 64 veces el mismo evento.
El progresivo incremento en la calidad de la señal es evidente. Notar que para que este

50
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

enfoque funcione es imprescindible que exista una relación


fija estímulo-respuesta y una forma reproducible de ésta
última, requisitos que en cambio no tienen relevancia para
la reducción del ruido por medio de filtros. Por otra parte, si
esta condición se cumple, es posible obtener un
significativo incremento de la relación señal-ruido aunque
las bandas de frecuencias que representan a la señal y al
ruido, respectivamente estén sobrelapadas (situación en la
cual, como ya se ha dicho, los filtros no funcionarían).
Analicemos un poco más formalmente los beneficios que
se podrían obtener a través de un promedio de ensamble.
Consideremos la colección {Xi(t)} de los trazos registrados,
fijándonos en los valores medidos en un cierto momento
fijo t en cada uno de ellos (por ejemplo, todos los valores
obtenidos a los 12 ms después de iniciar cada registro), y
Figura 9.3
tratemos de estimar cuánto ganaríamos en confiabilidad al
trabajar con valores promediados en lugar de observaciones individuales. Este conjunto de
números {Xi(t)} tendrá una cierta dispersión, representada por su desviación estándar. Ahora,
recalquemos nuevamente que cada medición Xi(t) refleja el ‘verdadero’ valor de la variable de
interés en el momento t, M(t), el cual tiene un valor fijo para cada t particular, sumado a una
variable aleatoria x, la cual en cambio asume un valor distinto en cada repetición; esta última
tiene promedio cero, y una desviación estándar = σ.
Xi(t) = M(t) + xi
La desviación estándar de la variable medida (X, la suma de las dos cantidades) será la misma
que la del ruido aleatorio (x), ya que el valor determinista M(t) no aporta variabilidad alguna,
sólo desplaza la distribución. Entonces la fidelidad de una medición está limitada por σ,
parámetro que indica probabilísticamente que tan alejada será una medición particular respecto
al valor ‘verdadero’; por ejemplo si xi tuviera una distribución Gaussiana, sabríamos que el 67%
de las veces obtendríamos valores X que no se apartan de M por más de ±σ.
Ahora pensemos en que sucedería si en lugar de basarnos en una observación particular,
promediáramos varias de ellas, digamos un número n. Nuevamente, preguntarnos qué tan
confiable sería ese valor obtenido equivale a preguntar cuál es la desviación estándar de
dichos promedios, si repitiéramos el procedimiento una y otra vez. Si, como es lícito suponer, el
elemento aleatorio en las distintas repeticiones constituye instancias independientes (es decir,
lo que ocurrió en una de ellas no repercute sobre lo que sucede en las otras, ya que se trata de
fluctuaciones completamente estocásticas) sabemos que la varianza de la suma de dichos
valores es la suma de las varianzas, en este caso n veces la varianza (ya que el ruido está
dado siempre por la misma variable estocástica). Se puede fácilmente mostrar que la
desviación estándar de los promedios será entonces σ/√n. En otras palabras la variabilidad se
habrá reducido por un factor de √n. Evidentemente, entre más grande el número de
observaciones, menos variable el resultado; pero también hay que enfatizar que la función raíz
cuadrada tiene una curvatura negativa, y por lo tanto la ganancia en confiabilidad al
incrementar el n será cada vez menor: con n=4 reducimos el valor a la mitad, con n=16, a la
cuarta parte, y si subiéramos en número de las observaciones a ser promediadas a 25, sólo
nos beneficiamos de otro 20% adicional.
Lo anterior esboza los aspectos más elementales de las herramientas disponibles para reducir
la contaminación que degrada las mediciones. Parte de la experticia de un experimentador que

51
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

registre señales eléctricas consiste en optimizar la relación S/R mediante el uso de estas y
otras estrategias.

52
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

10. Transductores
En las secciones anteriores se han esbozado algunos principios básicos de mediciones
eléctricas; posteriormente se examinará como empalmar dicha clase de registros con un
computador, el cual permita adquirir, almacenar y procesar datos. Pero antes de proceder es
importante recalcar que todas estas consideraciones realmente se extienden a muchos otros
tipos de mediciones, aunque la forma de energía originalmente implicada no sea eléctrica, tal
como el caso de la temperatura, fuerzas mecánicas, ondas acústicas, concentraciones
químicas de ciertas sustancias, y luz. En todas estas instancias la variable a ser medida puede
ser primero convertida a electricidad, así que luego se pueden aplicar exactamente los mismos
acercamientos que se utilizan para mediciones eléctricas. La clave radica en disponer de algún
aparato, denominado transductor, cuya función es precisamente encargarse de esa conversión.
Esta estrategia, por supuesto, no es novedosa y la naturaleza la ha adoptado hace millones de
años: por ejemplo, el mismo proceso ocurre en los órganos sensoriales de cualquier
organismo, los cuales absorben diferentes modalidades de energía para transducirlas a
cambios eléctricos en la membrana celular que constituyen el lenguaje biológico utilizado por el
organismo para procesamiento y transmisión de información. A continuación se describirán
algunos ejemplos comunes de trasductores que tienen amplia utilización en muchas ramas de
la ciencia, incluyendo biofísica, fisiología y ciencias biomédicas en general.
Fuerza
El más común de los trasductores de fuerzas mecánicas, llamado medidor de deformación
(‘strain gauge’) explota los cambios en la resistencia que ocurren
en una lámina de material que sea sometida a tensión o
compresión, con la resultante deformación: si se estira, la
longitud, l, aumenta, y el sensor se adelgaza (A, el área de
sección, disminuye; ver Figura 10.1A); por consiguiente, la
resistencia aumenta (recuerden que R = ρ/A). La compresión
producirá el efecto opuesto. Para lograr que minúsculos cambios
en longitud de un sensor sometido a estiramiento se traduzcan
en cambios apreciables de resistencia los strain gauges tienen
un diseño ingenioso y sencillo: simplemente, una delgada lámina
de conductor forma una tupida serpentina, montada sobre un
sustrato deformable (Figura 10.1B). Si la serpentina tiene n
vueltas, al estirar (o comprimir) el sensor en la dirección
longitudinal por una distancia Δl, el cambio total de longitud de la
serpentina será n×Δl, es decir, se incrementará
multiplicativamente con el numero de segmentos; con eso se
logra que los cambios en su resistencia sean también
significativos. Para medir fuerzas, se coloca el sensor de tal
manera que la fuerza en cuestión cause una deformación a lo
largo de su eje principal, y luego se trata entonces de monitorear Figura 10.1
continuamente la resistencia del aparato, por ejemplo, pasando
una corriente y registrando el voltaje resultante (ya que V = IR). La Figura 10.2 ilustra una
aplicación típica en fisiología o biofísica: se conecta un strain gauge en serie con un músculo
escindido (Panel A) o inclusive una fibra muscular aislada. A su vez, el otro lado del medidor
está sujetado a un soporte rígido. Al aplicar un estímulo eléctrico al músculo, que gatilla una
contracción, el sensor, al estirarse, incrementa su resistencia y si se aplica un voltaje entre sus
dos terminales, la corriente que fluye disminuye (Panel B). Como tal, la corriente mide la fuerza
ejercida. Otro tipo transductor mecano-eléctrico se fabrica con cristales piezoeléctricos,

53
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

materiales compuestos de moléculas que posean un


marcado momento dipolo (es decir, sus moléculas son
polares). Al deformarse, se re-alinean los momentos dipolos,
lo cual, tratándose de un material en estado cristalino, ocurre
de una manera ordenada; por lo tanto, la re-distribución de
las cargas se suma sistemáticamente, originando un cambio
de voltaje. La Figura 10.3 ilustra este concepto. Los cristales
piezoeléctricos funcionan de una manera reversible, así que
se pueden aprovechar también para aplicar una fuerza o
inducir un desplazamiento diminuto de un objeto si se aplica
un voltaje al cristal. El exquisito control que se puede ejercer
hace este elemento
ideal para
aplicaciones en
biofísica celular, en
las cuales se debe
desplazar una
Figura 10.2
estructura
microscópica como
los cilios mecano- Figura 10.3
sensibles de una célula individual.
Ondas acústicas
El micrófono es un artículo familiar a todos, y funciona colectando las ondas acústicas que
inciden sobre una membrana flexible, y acoplando su movimiento
vibratorio resultante a un transductor mecano-eléctrico. Entre los
más comunes se encuentran: (i) un cristal piezoeléctrico, el cual
produce un diminuto voltaje cuando se somete a deformación (ii)
Fabricando la membrana de un material eléctricamente
conductivo, y colocándola muy cerca de otra lámina metálica fija;
este arreglo (dos conductores cuya superficie de área, A, es
significativa, separados por una corta distancia, d) tiene
propiedades de condensador. Cuando las ondas de sonido hacen
que las dos láminas se acerquen o se alejen una de otra, el valor
de la capacitancia cambia (recuerden que C ≈ A/d); por lo tanto, a
un voltaje fijo la carga almacenada cambia (Q = CV). Monitoreando
continuamente la corriente capacitativa y convirtiéndola a un
voltaje se genera por lo tanto una señal eléctrica que replica la
forma de las ondas sonoras. Este diseño, llamado por obvios Figura 10.4
motivos micrófono de condensador, se muestra en la Figura 10.4.
Temperatura
Uno de los conversores temperatura-electricidad más utilizados es la termocopla, la cual se
basa en el así llamado efecto Seebeck (que toma el nombre del físico que primero lo describió):
si se aplica una diferencia de temperatura en una unión entre dos metales disímiles, se forma
un potencial eléctrico entre los dos lados de la unión. Los electrones de valencia en la región
caliente, sufriendo mayor agitación térmica, pueden migrar más fácilmente, alejándose hacia la
región más fría, con lo cual se establece una diferencia de voltaje. Esta diferencia de voltaje
guarda por lo tanto una relación directa con la diferencia de temperatura a la cual ha sido
expuesto el sensor bi-metálico. Ahora explotemos este fenómeno para convertir temperatura en
una señal eléctrica. Para ese fin, se necesita que al exponer una sonda bi-metálica a una

54
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

temperatura dada se produzca una diferencia de temperatura en la


interfase, la cual a su vez genere la diferencia de voltaje. Esto es posible –
pese a que toda la sonda está a contacto con el mismo medio – porque los
dos metales en cuestión tienen diferente conductividad térmica y por lo
tanto disipan el calor de una manera desigual. La Figura 10.5 muestra
esquemáticamente el sensor esférico de la termocopla (usualmente de
dimensiones de 1 mm o menos); la aplicación de calor produce un gradiente
de temperatura a través de la unión bi-metálica (porque la parte a la
derecha disipa más eficientemente el calor – ver grosor de la flecha), lo cual
da origen a un voltaje que se puede medir remotamente. Diferentes
uniones bi-metálicas manifiestan distinta sensibilidad, y se utilizan según el
rango de temperaturas que se quiere medir. La posibilidad de construir
termocoplas de dimensiones extremadamente pequeñas ha hecho posible
caracterizar cambios locales de temperatura en tejidos, o establecer los Figura 10.5
límites de sensibilidad de órganos sensoriales.
Luz
Existe una gran variedad de conversores de luz en electricidad. Algunos se basan en que la
absorción de un fotón por parte de cierto material desplace por completo un electrón del orbital
externo, generando un electrón libre y dejando atrás un átomo ionizado (el efecto fotoeléctrico).
Con esto se puede bien sea medir la corriente (el flujo de los electrones liberados) o bien el
potencial electroestático que se acumula en la matriz del material; ambas variables serán
función de la cantidad de luz incidente. En la sección de óptica de examinará un tipo de
detector basado en el efecto fotoeléctrico.
Alternativamente, se explotan ciertos materiales que
en estado basal no conducen electricidad (sus
electrones externos se encuentran en orbitales “de
valencia” desde los cuales son poco propensos a
saltar a un átomo vecino); la absorción de un fotón,
sin embargo, puede elevar un electrón a un orbital
más externo, desde el cual sí pueda migrar (la así
llamada banda de conducción).
En la aplicación más sencilla, este fenómeno
representa simplemente un cambio de resistencia
eléctrica en dicho material, que ocurre en respuesta
a la iluminación (una fotoresistencia); basta
entonces aplicar un voltaje y medir la corriente
resultante (o viceversa, imponer una corriente y
Figura 10.6 medir el voltaje que se genera), y, por la ley de
Ohm, el cociente V/I arroja R, cuyo valor refleja el
flujo de luz incidente. La Figura 10.6 ilustra la detección de luz por una fotoresistencia: los
fotones incidentes, al ser absorbidos por los átomos, elevan los electrones de valencia a la
banda de conducción (mayor energía), con lo cual se permite el flujo de corriente en respuesta
a un voltaje aplicado entre los terminales de la fotoresistencia. Medidores de luz encuentran
utilización en ciencias biológicas o bio-médicas no solamente para calibrar estímulos que se
aplican a órganos o tejidos foto-sensibles, sino también para medir emisiones bio-
luminescentes.
Radiación ionizante. Para detectar radiación de más alta energía existen diferentes arreglos;
uno de los más conocidos es el contador Geyger (o Geyger-Müller). El concepto es sencillo:
una sustancia radioactiva puede emitir, con cada desintegración, radiación suficientemente

55
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

energética para sacar un electrón del orbital del átomo que la absorba, con el resultado de que
se generen dos especies eléctricamente cargadas, el núcleo (el cual queda como un ión
positivo) y un electrón (negativo). El contador Geyger consiste en una cámara, típicamente
cilíndrica, cuyas paredes son conductivas y conectadas al polo negativo (él cátodo) de un
generador de voltaje (usualmente, varios cientos de voltios), mientras que en el medio se
encuentra un electrodo conectado al polo positivo de la misma fuente de poder (el ánodo). El
interior de la cámara está lleno de un gas inerte, y por lo tanto eléctricamente aislante, como el
argón, con lo cual normalmente no fluye corriente alguna entre los dos electrodos, pese a la
gran diferencia de potencial entre ellos. Uno
de los dos extremos del cilindro es una
ventana transparente a la radiación a ser
medida, por ejemplo, rayos γ que son
fotones de muy alta energía. Cuando un
fotón γ impacta a un átomo de argón, éste se
ioniza, y los dos constituyentes cargados
fluyen hacia sus respectivos electrodos (el
núcleo va al cátodo y el electrón al ánodo);
este evento representa un pulso de corriente
eléctrica, que es amplificado y detectado,
Figura 10.7 usualmente generando un breve sonido y
activando simultáneamente un contador que
mide la rata a la cual ocurren dichos eventos. Hay un fenómeno ulterior - llamado el efecto
Townsend - que ayuda el proceso de ionización al interior del tubo mismo, amplificándolo: con
cada átomo ionizado los productos aceleran en el campo eléctrico entre el ánodo y el cátodo,
adquiriendo energía cinética (E=1/2mv2); al sufrir colisiones con otros átomos aún intactos
pueden por lo tanto disociarlos (ionizarlos), con lo cual los nuevos productos sufrirán a su vez el
mismo proceso, y así sucesivamente. De esta manera se monitorean las ionizaciones
producidas por la radiación de las desintegraciones. La Figura 10.7 ilustra esquemáticamente el
arreglo; en cierta manera, el aparato es análogo a una foto-resistencia, sólo que la conducción
eléctrica engendrada por la absorción de la radiación se debe a ionización del sustrato, en lugar
de la más modesta transición de electrones a la banda de conducción. Debido a que la
radiación ionizante es fácilmente detectable y diferentes sustancias pueden ser modificadas
para volverse radioactivas, este tipo de medición ha sido ampliamente utilizado para rastrear
compuestos de interés biológico o médico.

Concentraciones químicas: hay por lo menos dos acercamientos muy comunes para generar
señales eléctricas que reflejen la concentración de
sustancias específicas en una solución. El primero se
aplica a moléculas eléctricamente cargadas (iones), y se
basa en una partición semi-permeable separa el exterior
de la sonda de su interior (donde también se encuentra
una solución electrolítica). La permeabilidad de la
partición es selectiva para algún tipo de sustancia
específica (por ejemplo, protones, Na+, K+ etc.); esto
ocurre naturalmente en algunos tipos de vidrio, pero
también se puede lograr haciendo que la partición sea
alguna matriz líquida hidrofóbica en la cual se
encuentren disueltas moléculas que pueden
específicamente ligar el soluto en cuestión de una
Figura 10.8
manera reversible, acarreándolo de un lado al otro.

56
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

Dicho ión está presente también al interior de la sonda; la diferencia de concentración entre el
compartimiento externo a ser medido y el interior de la sonda impulsa un flujo difusional
(facilitado por los acarreadores), el cual a su vez genera una separación de carga eléctrica.
Este movimiento cesa cuando el potencial electrostático resultante contrarresta justamente la
tendencia difusional, i.e. se estabiliza al potencial de equilibrio (o potencial de Nernst) de ese
ion (EX = RT/zF⋅ln([Xe]/[Xi]), donde R es la constante universal de gases, T la temperatura en
grados Kelvin, z la valencia del ion, F la constante de Faraday, [Xe] y [Xi] las concentraciones
externa e interna del ion, respectivamente). Como el potencial de equilibrio tiene un valor
proporcional al logaritmo del gradiente de concentración, el voltaje generado refleja la
concentración del ion de interés en el medio externo, y se puede fácilmente calcular (dado que
la concentración al interior de la sonda se conoce). Un electrodo de pH opera justamente de
esta manera, respondiendo a diferencias en la concentración de protones. En la Figura 10.8 se
ilustra el esquema básico de medición por medio de un electrodo selectivo a un ión X. Este ha
sido uno de los acercamientos que ha permitido determinar las concentraciones de iones
fisiológicamente relevantes (por ejemplo, el sodio, el potasio, el calcio, y el cloruro) tanto en los
fluidos intersticiales como en el citoplasma (lo segundo, por supuesto, requiere la fabricación de
sondas microscópica que se puedan introducir al interior de una célula).
Existe otra estrategia que funciona con sustancias que sean fácilmente oxidables. En este caso
se tiene un electrodo metálico (usualmente grafita, o platino) en la solución, el cual es
mantenido a un voltaje en exceso del potencial de óxido-reducción de la sustancia de interés.
En ausencia del sustrato, no puede
haber conducción DC entre metal y
líquido, pese al voltaje aplicado (los
electrones de la matriz del electrodo
no se pueden transformar en iones y
disolverse en el medio líquido, ni
viceversa); así que la superficie del
electrodo queda polarizada, pero no
fluye corriente (Figura 10.9A). Pero si
una molécula oxidable X (Figura
10.9B, círculos amarillos) se adsorbe
a la superficie del electrodo, el fuerte Figura 10.9
campo eléctrico le arrebata un
electrón (oxida el sustrato), y este sí puede viajar por el electrodo. Por consiguiente, se genera
una corriente (corriente oxidativa) proporcional a la rata de eventos de oxidación, la cual a su
vez es proporcional a la concentración del sustrato. De nuevo, hemos logrado generar una
señal eléctrica que refleja la concentración de una sustancia química. Debido a que una gran
variedad de sustancias bio-activas (como por ejemplo los neuro-transmisores que las células
del sistema nervioso secretan) son oxidables, este acercamiento ha sido muy útil para
monitorear la forma como las neuronas se comunican unas con otras a través de un lenguaje
químico. Variantes de estas técnicas electroquímicas para determinar concentraciones de
sustancias oxidables se conocen como amperometría y voltametría.

57
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

11. Adquisición computerizada de datos.


Habiendo revisado algunos principios elementales de mediciones eléctricas, tenemos ahora
que considerar como generar un registro permanente de alguna variable medida a lo largo del
tiempo. En la actualidad, casi sin excepción, todo proceso de adquisición de datos en última
instancia implica su almacenamiento en forma de archivo digital en un computador. No
solamente esto permite su rápido acceso, sino brinda enormes posibilidades para el
procesamiento y la representación gráfica de dicha información. Estas consideraciones nos
obligan a familiarizarnos con la trasformación de la información en un formato idóneo para
lograr este objetivo. Las señales eléctricas, como por ejemplo el voltaje y la corriente, son
variables continuas (es decir pueden cambiar por cantidades arbitrariamente pequeñas y
adquirir por lo tanto un continuo de valores); esto implica que la representación fiel de un valor
puede requerir un número de dígitos infinito (e.g. 1/3, π, etc.). Además pueden cambiar
continuamente en el tiempo (lo cual implica una infinidad de valores en cualquier intervalo
finito). Un computador digital, en cambio, opera con una cantidad finita de números (dictada por
la memoria disponible), cada uno de los cuales sólo puede asumir un abanico finito de valores
(dictado por el número de dígitos que se asignan a cada número). Por lo tanto, la adquisición
de datos por computador está sujeta a dos limitaciones intrínsecas al proceso de digitización (o
conversión análogo-digital): (i) Aunque la variable en cuestión esté en un continuo temporal,
sólo podremos ceñirnos a un conjunto finito
de sus valores, muestreados en ciertos
momentos discretos (típicamente a
intervalos regulares). (ii) Cada valor de la
variable en cuestión debe ser ‘redondeado’,
si es necesario, para respetar el requisito
de que sólo se dispone de un número fijo
de dígitos para representarlo. La Figura
11.1 muestra una señal análoga (trazo
azul) y el conjunto de valores muestreados
(puntos rojos); notar que variaciones finas
de la señal, que ocurren entre sucesivas
nuestras (las cuales son tomadas a
intervalos de ΔT), o que se ciñen a valores
Figura 11.1 comprendidos entre dos niveles contiguos
de digitización (ΔV), no son registrados por
el proceso de conversión análogo-digital (en la figura las líneas rojas sólo representan la
interpolación gráfica entre los puntos realmente adquiridos).

El computador utiliza un sistema numérico binario, es decir, sus dígitos individuales sólo
pueden asumir dos valores (usualmente referidos como ‘0’ y ‘1’); éstos representan dos niveles
de voltaje (típicamente 0 V y +5 V) utilizados por los circuitos de electrónica digital. Al igual que
en nuestro acostumbrado sistema numérico decimal, formamos un número constituido por una
serie de dígitos, pero en el caso del computador el número siempre tiene una cantidad pre-
definida de dígitos, lo cual limita su precisión. Por ejemplo, si eligiéramos establecer que los
dígitos (llamados bits) que constituyen nuestro número binario fueran 8, éste podría solamente
asumir 256 posibles valores: cada bit tiene 2 posibilidades, así que un conjunto de 8 bits
(llamado un byte) puede tener 28 valores, desde 0 (=00000000) hasta 255 (=11111111). Si
fueran números de 12 bits, habría 4096 posibilidades, si fueran de 16 bits habría 65532, etc. Al
adquirir datos, se dedica una cierta área de la memoria RAM del computador para esta tarea (a
veces llamado el ‘buffer’ de adquisición), y ésta tiene un tamaño dado: por ejemplo si el buffer
fuera de 200 KB, y los valores muestreados fueran representados en números binarios de 16

58
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

bits (2 bytes), podríamos almacenar 100 mil muestras. Qué tan rápido se nos acabaría la
memoria disponible dependerá de la rapidez, o mas exactamente, la frecuencia, con la cual
muestreáramos la variable. Por ejemplo, si lo hiciéramos 5 mil veces por segundo (5 KHz, es
decir una muestra cada 200 μs), podríamos seguir muestreando durante 20 segundos, al cabo
de los cuales habríamos agotado la memoria y tendríamos que interrumpir el proceso. El arte
(en realidad, la ciencia) de adquirir datos por computador radica en saber minimizar la pérdida
de información implícita en el proceso de conversión análogo-digital. A continuación se
esbozarán los dos aspectos más importantes.

Rango dinámico
Un conversor análogo-digital (ADC, “analog-digital converter’) puede recibir un voltaje dentro de
un rango definido (por ejemplo desde -10 V hasta +10 V) y convertirlo a un número binario de
una cierta resolución (llamada la profundidad de bits, por ejemplo, 8 bits). Al hacerlo, asigna el
número binario menor (000000, es decir 0 decimal) al valor mínimo de su rango permitido (en
nuestro ejemplo, -10 V), y el numero binario máximo (11111111, o 255 decimal) al valor
máximo (que en este caso sería +10 V) [Nota: existen otras formas de codificación binaria para
representar números positivos y negativos, pero el esquema presente es representativo y basta
para lo que se quiere examinar aquí]. Valores de voltaje de entrada que estén bien sea por
debajo o por encima del rango permisible serían asignados a 0 o 255, respectivamente, sin
hacer distinciones de que tan negativo o positivo es el voltaje en cuestión: en ambos casos el
conversor estaría saturado, habiendo excedido su capacidad (y si se excede ese rango de
voltaje por un margen muy grande se puede quemar el conversor!). En cambio, voltajes dentro
del rango lícito serían convertidos en números variables entre 0 y 255, según su tamaño; en
otras palabras, el rango entre -10 V y +10 V (en este ejemplo) se dividiría en 256 intervalos
iguales (asumiendo conversión en 8 bits), y cualquier voltaje al caer en un intervalo dado se
convertiría en el número binario correspondiente. Por supuesto, uno quisiera optimizar este
proceso, el cual sufre del problema de no hacer distinciones más finas que el tamaño de los
256 ‘escalones’. Esta limitante, de por sí significativa, es susceptible de empeorar mucho más
si el rango dinámico de la señal a ser medida (es decir, el voltaje mínimo y máximo que la señal
de interés efectivamente asume en el curso de una medición) no fuera más o menos
equiparable al rango dinámico de entrada del ADC: para hacer un ejemplo, el conversor podría
ser capaz de recibir valores desde -10 a +10 V, y ya sabemos que si la señal a ser medida se
excediera en cualquiera de los extremos, por ejemplo llegando hasta voltajes de +27 V,
entonces parte del tiempo el conversor entraría en saturación, asignando indiscriminadamente
a toda excursión por encima de +10 V el valor ‘255’. Esto, por supuesto no sería una
representación fiel de la señal. Pero un problema igualmente serio ocurre si la señal a ser
medida fuera demasiado pequeña y, por ejemplo,
oscilar solamente entre -0.05 V y +0.1 V (-50 mV a
+100 mV). En nuestro ejemplo, el tamaño de los
‘escalones’ del ADC es de ≈78 mV (rango dinámico
del conversor dividido por el numero de valores
posibles, es decir [+10 –[-10]]/256] = 0.078 V), así
que nuestra señal apenas daría excursiones que
abarcarían sólo unos 3 escalones, y su apariencia,
una vez digitizada, sería una serie de saltos
rectangulares (pese a haber podido ser
originalmente una señal que cambiara de una forma
lisa y continua). La Figura 11.2 ilustra esta situación:
el trazo azul representa la variable a ser medida, la
cual sufre cambios complejos a lo largo del tiempo,
pero de muy escasa amplitud. Los valores digitales Figura 11.2

59
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

permisibles, en cambio, son solamente aquellos representados por las líneas horizontales.
Evidentemente, el registro digitizado (puntos rojos) no hará justicia al verdadero curso temporal
de la variable en cuestión; en particular, todas la fluctuaciones cuya amplitud haya sido menor
que 78 mV desaparecerán del registro, quedando convertidas al valor constante = 0. Una vez
efectuada la conversión digital, no hay manera de corregir estas fallas y recuperar la
información perdida. Estas consideraciones nos indican que es imprescindible tener una idea
del rango de valores de la variable a ser medida, para amplificarla o atenuarla antes de entrar
al ADC, de tal manera que ‘ocupe’ una porción generosa del rango dinámico del ADC, sin llegar
a saturarlo en ninguno de los dos extremos.

Frecuencia de muestreo
Un problema paralelo ocurre con el requisito de tener que muestrear solamente en momentos
discretos; aquí la dificultad radica en poder resolver los cambios temporales de la señal. Si la
señal cambiara lentamente (por ejemplo, una onda sinusoidal que realizara una oscilación cada
segundo i.e. 1 Hz), evidentemente muestreando a 100 Hz podríamos dar cuenta con bastante
precisión de su crecer y decrecer gradual (cada ciclo estaría representado por 100 puntos).
Pero eso no ocurriría si, con la misma frecuencia de muestreo, tratáramos de seguir el rastro de
un voltaje que estuviera oscilando a 1000 Hz, ya que solamente se tomaría una muestra cada
10 ciclos de la onda, y claramente perderíamos toda posibilidad de seguir sus cambios. Para
entender como ajustar correctamente la frecuencia de muestreo, hay que introducir, aunque
sea como simple concepto (sin matemáticas ni demostraciones) dos teoremas.

• Toda onda que cambia continuamente en el tiempo se puede representar como la


superposición de muchas ondas sinusoidales (i.e. senos y cosenos) de diferentes
frecuencias, amplitudes y fase. La Figura 11.3 proporciona un ejemplo, mostrando como
la representación de una onda cuadrada por suma de sinusoides se torna cada vez mas
precisa a medida que uno añade más y más componentes de frecuencias
progresivamente mayores. En el límite, con infinitos componentes, el resultado sería
idéntico a la onda original. Este
mismo acercamiento se puede
aplicar a cualquier señal, y en
ciertos casos puede inclusive
solamente hacer falta un conjunto
finito de componentes sinusoidales
para repicar perfectamente la
función inicial. Este enunciado se
conoce como el Teorema de
Fourier. Uno de los aspectos de
gran importancia de esta deducción
es que muchas veces lidiar con una Figura 11.3
simple función sinusoidal es muy
fácil, mientras que puede no serlo con una función cuyo curso temporal es complicado.
Si necesitamos aplicar algún procedimiento computacional a una función complicada, a
menudo resulta conveniente descomponerla en sus elementos constituyentes, aplicar
las operaciones a cada uno de ellos, y re-constituir la función resultante, sumando los
resultados individuales.

• Si se muestreara una onda sinusoidal simple por lo menos dos veces por cada ciclo, se
puede reconstruir su curso temporal (acudiendo a un malabarismo matemático que en
este contexto no viene al caso detallar). Este enunciado se conoce como el teorema de
muestreo de Nyquist. Por supuesto, entre mayor el número de muestras por ciclo de

60
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

oscilación, más fácil ver, por simple interpolación, que se trata de un sinusoide de cierta
frecuencia, sin necesidad de cómputos
complejos. Pero si la frecuencia fuera menor
que 2/ciclo, no sería posible discernirla como
tal: la Figura 11.4 muestra un ejemplo en el
cual una onda rápida (trazo rojo) fue
muestreada con baja frecuencia (menos de 2
muestras por ciclo), y la secuencia resultante
de valores da la idea errónea de que se tratara
de un sinusoide lento (trazo azul). A este
fenómeno se le llama ‘aliasing’. Nuevamente,
Figura 11.4
no hay forma de recuperar la información
perdida; de allí la necesidad de asegurarse que
la señal medida no contenga frecuencias mayores que 2× la rata de muestreo.

Ahora juntemos los dos conceptos. Si tenemos una señal arbitraria (cuya forma fuera compleja,
no un simple sinusoide) podemos descomponerla en sus sinusoides constituyentes (su
espectro de Fourier). Por lo tanto, si muestreáramos dicha señal con una frecuencia por lo
menos el doble que la frecuencia del sinusoide más rápido, tendríamos la certeza de que cada
componente estaría muestreado lo suficientemente a menudo para garantizar su reproducción
fiel, y por lo tanto lo mismo se aplica a la suma de todos ellos, es decir, nuestra señal original.
Dicho en otras palabras, si se conoce de antemano el rango de frecuencias constituyentes de
una señal (su ancho de banda) se puede definir cuál es el límite mínimo de frecuencia de
muestreo para evitar pérdida de información. De no ser posible, se puede modificar la señal
misma, pasándola por un filtro que rechaza frecuencias mayores a un cierto límite (un así
llamado filtro pasa-bajos) antes de que llegue al conversor análogo-digital, y luego establecer la
rata de muestreo con base en la frecuencia crítica del filtro. Estos conceptos tienen
repercusiones importantes, y de no asimilarlos y emplearlos es fácil introducir errores en el
proceso de adquisición de datos. Supongamos, por ejemplo que se tuviera una señal
contaminada por ruido de alta frecuencia (tal como aparece en los trazos superiores de las
Figuras 9.1 y 9.3). Si se digitizara el trazo a una cierta a rata de muestreo, y se hiciera caso
omiso que el ruido contiene frecuencias que exceden el criterio de Nyquist, se obtendría un
registro digital en el cual podrían aparecer componentes artifactuales de frecuencias bajas
(debidos a ‘aliasing’). A ese punto ya no sería posible eliminar ese ruido por medio de un filtro,
porque su espectro de frecuencia alterado sobrelaparía el de la señal, y el proceso
inevitablemente distorsionaría la señal misma: la contaminación se torna irremediable.

61
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

12. Análisis de sistemas lineales


Definición de sistema lineal
Los conceptos de análisis en el dominio de frecuencia (es decir, representar alguna variable no
en términos de como cambian sus valores en el tiempo, sino en términos de la superposición
de sinusoides de diferentes frecuencias, amplitudes, y fases) se pueden extender al estudio de
como se comportan ciertos sistemas cuando se someten a estimulación. Esto nos brinda una
descripción compacta de su relación estimulo-respuesta, la cual sintetiza su desempeño y,
como describimos más abajo, nos permite predecir cuál será su respuesta ante un estimulo
arbitrario. Esta poderosa herramienta se aplica a una
cierta clase de sistemas, conocidos como sistemas
lineales. Aclaremos que quiere decir. Llamamos un
sistema a alguna entidad S, a la cual se aplica una
estimulación (el input) y se produce alguna respuesta
(el output); un ejemplo podría ser un órgano sensorial,
que se expone a estimulación de la modalidad
energética apropiada y se monitorea la frecuencia de
las descargas neuronales que produce en el
correspondiente nervio aferente. Tanto el input como el
output pueden variar en el tiempo, y por lo tanto son
funciones; llamémoslas X(t) y Y(t), respectivamente; el
sistema opera sobre X(t), transformándolo en Y(t): Figura 12.1
S[X(t)] = Y(t). En un sistema lineal, si se aplicara un
input que representa la suma de dos estímulos, X1(t) y X2(t), la respuesta resultante sería la
suma de las respuestas a los dos estímulos individuales:

Si X(t) = X1(t) + X2(t) entonces Y(t) = Y1(t) +Y2(t)

donde Y1(t) = S[X1(t)], y Y2(t) = S[X2(t)]

La Figura 12.1 muestra gráficamente este comportamiento. También, si modificáramos la


amplitud de un input, multiplicándola por una constante, la respuesta se vería multiplicada por
la misma constante: en otras palabras:
S[a⋅X(t)] = a⋅Y(t)
La Figura 12.2 ilustra un ejemplo. Notar que estas
propiedades no son para nada generales de todo
sistema: para dar un ejemplo que las viole,
consideremos una fibra nerviosa. Si se aplica a un
axón un estímulo eléctrico por encima del umbral, se
produce un potencial de acción. Si ahora aplicamos
un estímulo dos veces más intenso, se produce un
potencial de acción similar (no el doble de grande!):
evidentemente no se mantiene una proporcionalidad
entre estímulo y respuesta, y diríamos que este
sistema es no-lineal.

Figura 12.2

62
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

Función de transferencia
Ahora pasamos a examinar la manera como la señal de input es transformada para generar la
señal de salida. Un sistema lineal posee la fundamental propiedad de que la respuesta a un
input sinusoidal es también un sinusoide de la misma frecuencia (aunque su amplitud y fase,
por supuesto, pueden cambiar). La importancia de estas características radica en que, como ya
sabemos, una función arbitraria (físicamente realizable) siempre se puede descomponer, por el
teorema de Fourier, en sus componentes sinusoidales. En un sistema lineal la respuesta a un
input compuesto de la suma de ciertos sinusoides, debe ser igual a la suma de las respuestas a
cada uno de los sinusoides (por definición de linealidad). Por lo tanto, si conociéramos para
cada frecuencia la manera como el sistema transforma un input sinusoidal, podríamos predecir
la respuesta para cualquier estimulo: lo que haríamos es (i) descomponer el input arbitrario
(representándolo como la suma de sinusoides de diferentes frecuencias, amplitudes y fase), (ii)
aplicar a cada constituyente la trasformación predicha (lo cual consiste sencillamente en un
cambio de amplitud y fase) y (iii) sumar todas las respuestas elementales obtenidas. Sólo hace
falta haber establecido de antemano cuál es el cambio de amplitud y fase que sufre un
sinusoide, dependiendo de su frecuencia. Esta regla de transformación es lo que se conoce
como la función de transferencia de modulación, y caracteriza plenamente el comportamiento
de un sistema lineal. La función de
transferencia consta a su vez de dos
componentes (dos funciones), el uno
expresa los cambios de amplitud y el
otro los cambios de fase sufridos por
sinusoides de diferentes frecuencias
La Figura 12.3 muestra el proceso:
para predecir la respuesta al input,
éste se decompone en sus
constituyentes sinusoidales (análisis
de Fourier, ilustrado por los trazos a
la izquierda); en este caso, para
simplificar, asumimos que solamente
3 frecuencias (f1, f2, y f3) contribuyen
a la señal original. Al pasar por el
sistema, la amplitud y la fase de cada
uno de los tres sinusoides son
Figura 12.3 modificadas según la función de
transferencia (representada por las
dos gráficas en el panel central), generando los tres sinusoides de de la derecha. Notar que
según la función de transferencia f1 no sufre atenuación alguna, ni cambio de fase; en cambio f3
debe reducirse considerablemente en amplitud y desfasarse. Las respuestas sinusoidales
resultantes luego se suman para reconstituir la respuesta del sistema al estímulo inicial
(síntesis). Las aplicaciones de este tipo de análisis para determinar el desempeño de un
circuito son obvias, y de hecho ya hemos estado tratando estos mismos conceptos, aunque
fuera de una manera un poco encubierta, cuando se discutió la noción de impedancia y cuando
se describió la función de los filtros pasa-bajos y pasa-altos: se trataba de situaciones en las
cuales una señal de voltaje podía generar una corriente de una cierta magnitud o sufría un
cierto grado atenuación al pasar por un circuito dependiendo de su frecuencia de oscilación. Tal
vez es menos obvia la trascendencia de este mismo acercamiento en fisiología, pero resulta
ser una herramienta crucial en muchos campos, y no necesariamente ciñéndose a fenómenos
eléctricos. Por ejemplo, el estudio del sistema auditivo claramente se puede beneficiar de un
análisis en el dominio de frecuencia, y la caracterización de la función de transferencia nos

63
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

brinda no solamente una descripción compacta de sus límites de desempeño, sino también
proporciona una visión de como una onda acústica compleja (un compás de música, una frase
hablada) es transformada en cada paso del proceso auditivo: desde las vibraciones inducidas
en la membrana timpánica, a la conversión en potenciales de receptor de las células ciliadas, a
su transmisión sináptica a las neuronas del ganglio espiral que forman el nervio auditivo, con la
consecuente modulación de la producción de potenciales de acción. En la medida de que las
condiciones de linealidad puedan justificarse, cada una de esas transformaciones se puede
caracterizar por su propia función de transferencia. Más aún, aunque hasta el momento se ha
supuesto que las oscilaciones de los sinusoides ocurren en el tiempo, en realidad esta
restricción es innecesaria y se pueden considerar sinusoides que varíen, por ejemplo, en el
espacio. Un ejemplo está dado por el estudio de la agudeza visual: en lugar de examinar la
discriminación de dos puntos apenas separados (como se hacía tradicionalmente), se pueden
considerar estímulos visuales constituidos por bandas alternantes claras y oscuras, cuyo grosor
(es decir, cuya frecuencia espacial, especificada en #ciclos/distancia) varíe. La capacidad de
discernir detalles finos puede caracterizarse entonces en términos de la función transferencia
de de modulación espacial: que tanto se atenúa la percepción de patrones espaciales
dependiendo de la frecuencia (uno se imagina que si las barras son demasiado finas, el sujeto
con dificultad discernirá que se alternan bandas claras y oscuras, o inclusive sólo percibirá un
campo uniforme). La Figura 12.4 muestra este acercamiento: el panel está constituido por un
alternarse de ‘barras’ verticales (en realidad ‘ondas’ que varían sinusoidalmente entre negro y
blanco), cuya frecuencia espacial aumenta progresivamente hacia la derecha (i.e. crece el
número de barras por unidad de distancia
horizontal, o, equivalentemente, disminuye el
grosor de las barras). El contraste de las barras
(la diferencia entre la parte oscura del ciclo, y la
clara) disminuye gradualmente hacia arriba,
desde negro vs. blanco (100% contraste), hasta
matices de gris prácticamente uniformes (0
contraste). Físicamente, si dibujáramos una
línea horizontal el nivel de luminancia oscilaría
entre los mismos límites de mínimo y máximo
(es decir, el contraste se mantiene constante a
lo largo de la línea), pero eso no es lo que
reporta un observador: hay un rango de
frecuencias espaciales, entre bajas y medianas,
que el observador puede discernir aún con
Figura 12.4 poco contraste (la sensación es que las barras
se extienden considerablemente hasta arriba),
pero cuando la frecuencia espacial incrementa
mucho solamente logramos discernir esas barras muy finas si tienen alto contraste (i.e. la
porción inferior). Es decir, el perfil de hasta donde se extienden verticalmente las barras
percibidas proporciona directamente la función de transferencia de modulación, que describe la
agudeza visual del observador! (ensayar como cambia acercándose o alejándose de la gráfica
– y explicar el porqué). Aunque hemos invadido el terreno de la óptica fisiológica, vemos que
los mismos acercamientos analíticos que se utilizan en electricidad siguen siendo valiosos.
Falta solamente añadir una nota de sobriedad a estas consideraciones que parecen mostrar el
análisis de sistemas lineales como una panacea universal: muchos sistemas (la mayoría, muy
probablemente) no son lineales. Que hacer entonces? No es imprescindible abandonar por
completo este acercamiento: resulta que aún para un sistema no lineal el cambio en el output
que se obtiene al modificar muy poco el input siempre guarda una relación aproximada de

64
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

proporcionalidad entre estímulo y respuesta; por consiguiente, todavía podemos proceder de la


misma manera, siempre y cuando los estímulos en cuestión cambien muy poco. Si eso fuera
inaceptablemente restrictivo, existen otras técnicas matemáticas de análisis no-lineal, pero
notablemente más complejas.

Análisis de frecuencia
Ahora vamos a tratar de matizar la sensación de que el análisis en el dominio de frecuencia
implica operaciones absolutamente misteriosas; más específicamente, se pretende ilustrar de
donde sale la extracción de las frecuencias sinusoidales que contribuyen a una señal arbitraria.
Solamente esbozaremos los aspectos conceptuales más salientes, sin una derivación detallada
y rigurosa. El método se basa en un simple resultado de la trigonometría: consideremos dos
funciones sinusoidales, X1 y X2, con amplitud, frecuencia, y fase arbitrarias:
X1(t) = A1sin(ω1t + ϕ1)
X2(t) = A2sin(ω2t + ϕ2)
(A, ω, ϕ siendo la amplitud, la frecuencia angular, y la fase, respectivamente). Multiplicamos
X1(t)⋅X2(t) i.e. A1⋅sin(ω1t + ϕ1) ⋅A2⋅sin(ω2t + ϕ2). El resultado, según una conocida identidad
trigonométrica, es:
½ A1A2 {cos[(ω1-ω2)t +(ϕ1-ϕ2)] - cos[(ω1+ω2)t +(ϕ1+ϕ2)]}
Es decir, el producto de dos sinusoides es la superposición de 2 sinusoides cuyas frecuencias
son la resta y la suma (ω1-ω2 y ω1+ω2), respectivamente, de las frecuencias de los dos
operandos (Figura 12.5). Esta función resultante, en general, también es una señal AC con
promedio cero, exceptuando la situación especial en la cual las dos frecuencias coinciden, ω1 =
ω2, en cuyo caso (ω1-ω2) = 0, con lo cual queda:
½⋅A1A2 [cos(ϕ1-ϕ2) - cos(2ωt +ϕ1+ϕ2)] (*)
El primer término coseno es una constante, ya que la variable t desapareció, que depende de la
diferencia de fase entre las dos señales (e.g. si ϕ1=ϕ2. esta constante resulta ser ½⋅A1A2, ya
que cos (0) = 1). En cambio el segundo término es un sinusoide con frecuencia 2ω. Es decir, en
esta instancia el resultado de la
multiplicación es un sinusoide al
cual se le añade una constante, y
que por lo tanto oscila alrededor
de algún nivel, no Figura 12.5
necesariamente cero. Ahora,
consideremos lo que sucede al integrar estas funciones resultantes de una multiplicación entre
sinusóides (i.e. obtener el ‘área bajo la curva’), lo cual podemos hacer separadamente para los
dos términos. En el caso de frecuencias desiguales para los dos multiplicandos, se trata de dos
sinusóides, y en ambos casos la integral es cero porque, tratándose de una función periódica
centrada en cero, los valores positivos y negativos se anulan (áreas sombreadas de la curva a
la derecha en la Figura 12.5). La situación es
diferente para el producto de dos sinusoides de
igual frecuencia: en este caso la integral del primer
término arroja un valor no nulo (la del segundo en
cambio sí: se trata de un sinusoide del doble de
frecuencia y desplazado verticalmente; ver Figura

Figura 12.6

65
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

12.6). Esto hace que el


resultado total de la
multiplicación no sea cero.
Ahora utilicemos esta
noción para identificar un
sinusoide cuyas
características
desconocemos. Para este
fin necesitamos
simplemente multiplicarlo
secuencialmente con Figura 12.7
otros sinusoides de todas
las frecuencias posibles, y
luego sacar la integral del resultado. Ya sabemos que sólo en el caso de que la frecuencia de
los dos multiplicandos sea idéntica el resultado arrojado puede tener un valor no nulo. Por lo
tanto cuando se da tal resultado sabemos que la frecuencia de la función sinusoidal
desconocida debe coincidir con la de la otra función. La Figura 12.7 ilustra el proceso de una
manera simplificada. A la izquierda se encuentra la función seno a ser identificada –
llamémosla f - la cual multiplicamos con cada uno de los elementos de la siguiente columna (en
realidad se trataría de un abanico infinito, representando todas las frecuencias). Sólo uno de
ellos (el que está marcado en rojo, para resaltarlo) tiene la misma frecuencia que f. En la
tercera columna se describen los resultados de todas las multiplicaciones: en todos los casos
menos uno, se obtiene la superposición de 2 sinusoides (con frecuencias que son la suma y la
resta, respectivamente, de las frecuencias de los multiplicandos); sólo para el tercer caso se
obtiene un resultado que es un sinusoide sumado a algún número. Como tal, mientras para
todos los restantes casos la integral (columna de la derecha) es cero - por anularse las
porciones negativas y positivas – cuando el resultado es un sinusoide no centrado en cero la
integral produce un número no-nulo. Sabemos entonces cuál era la frecuencia de la función
desconocida; es más, podemos inferir su amplitud y fase. En realidad el procedimiento es un
poco más complejo, y hay que multiplicar f no solamente con senos sino también con cosenos
de todas las frecuencias. Esto debido a una sutileza que es preciso a aclarar: al multiplicar el
sinusoide desconocido con sin(ωt) – el de la misma frecuencia - la constante obtenida (primer
término en la expresión (*) arriba) es cos(ϕ1-ϕ2). Si la diferencia de fase ϕ1-ϕ2 fuera 90° (π/2) o
270° (3π/2) este valor sería cero; esto quiere decir que la integral también daría cero. Pero
como para toda frecuencia se hace la multiplicación también con cos(ωt), la segunda
multiplicación daría el valor requerido (si una de las dos integrales es nula, la otra
necesariamente no lo es). En el caso general, por ejemplo para valores intermedios de
diferencia de fase, siempre se puede reconstruir la magnitud y la fase de la función
desconocida a partir de ambos productos, f(t)·sin(ωt) y f(t) ·cos(ωt).
Armados de este resultado, abordemos la descomposición de una función cualquiera, F(t), la
cual, según el teorema de Fourier, debe estar constituida por la suma de diversos componentes
sinusoidales (F(t) = f1(t) + f2(t) + f3(t)+...), cada uno con una cierta frecuencia, amplitud, y fase.
Como identificarlos? Sencillamente repitiendo el mismo procedimiento: multiplicando la función
F(t) por senos y cosenos de diferentes frecuencias (todos con un ángulo de fase ϕ=0) -
explorando la gama entera de valores posibles - e integrando. Llamemos genéricamente {X(t)}
este conjunto de funciones seno y coseno. Para cualquier sinusoide particular del conjunto,
llamémoslo Xj(t), el producto con F puede representarse como:
Xj(t)⋅F(t) = Xj (t)⋅ (f1(t) + f2(t) + f3(t)....)

66
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

Por la propiedad distributiva de la multiplicación, es lo mismo que:


Xj (t)⋅F(t) = Xj (t)⋅f1(t) + Xj (t)⋅f2(t) + Xj (t)⋅ f3(t)...
Ahora integremos. Si la frecuencia del sinusoide Xj(t) es diferente a todas las que constituyen F,
el resultado de la integración será cero, como ya sabemos. En cambio si Xj(t) coincide con la
frecuencia de algún componente de F - digamos fk(t) – la integración podrá arrojar un resultado
no nulo. Repitiendo el proceso con sinusoides X(t) de muchas frecuencias podríamos compilar
una lista de cuáles frecuencias están representadas en F, cuál es su fase, y que tanto
contribuyen en términos de amplitud a la función F.

Análisis en el dominio temporal


Las consideraciones anteriores proporcionan una justificación de la práctica tan frecuente de
utilizar estímulos que varían de una manera sinusoidal para caracterizar el comportamiento de
un sistema; esto recurre en física, biología,
ingeniería y hasta en ciencias económicas. Es
lícito preguntarse si el otro acercamiento,
aparentemente más intuitivo y natural, de
mirar como las diferentes variables cambian
en el tiempo, es intrínsicamente menos
apropiado. Resulta que no es así: el dominio
temporal y el dominio de frecuencia co-existen
como mundos paralelos, y ambos permiten
extraer la misma información. Así como los
estímulos sinusoidales son críticos para el
análisis dentro del dominio de frecuencia
(porque permiten descomponer una señal
arbitraria), en el caso del dominio temporal
también hay tipos de estímulo que los hacen
especialmente útiles. Aquí el más clave es el
impulso, es decir, un estímulo que idealmente Figura 12.8
debería ser infinitamente breve; en la práctica
se busca algo cuya duración simplemente sea muy corta en relación a la escala temporal de las
medidas a efectuar y de la rapidez del sistema bajo estudio. De nuevo, la lógica es la misma:
un estímulo arbitrario que varíe en el tiempo se puede considerar como la sucesión de muchos
impulsos breves que cambian en amplitud (Figura 12.8A); se trata de otra manera de
descomponerlo. Si el sistema cumple las condiciones de linealidad, y es invariante en el tiempo
(i.e. la forma como el sistema responde a un estímulo dado no varía con el tiempo) entonces al
conocer su respuesta a un impulso estándar (Figura 12.8B) se puede reconstruir la respuesta
ante un estímulo arbitrario como la suma de muchas respuestas a impulsos de diferentes
amplitudes, escalonadas en el tiempo.
Para esbozar la manera como se representaría la respuesta del sistema en función de la
respuesta impulsiva, consideremos lo siguiente: supongamos que la función f(t) representa la
respuesta a un estímulo impulsivo unitario aplicado en el momento t = 0. Si se aplicara el
mismo estímulo en el momento t = to, la respuesta tendría la misma forma y tamaño, sólo que
desplazada en el tiempo. Matemáticamente se puede representar simplemente cambiando el
argumento de la misma función: f(t-to). Ahora, puesto que el sistema es lineal, cumple con la
condición de homogeneidad, es decir al multiplicar la amplitud del estímulo por cualquier
constante a, la amplitud de la respuesta quedaría modificada por el mismo factor a. Entonces
en una situación en la cual se sucedieran en el tiempo estímulos impulsivos con amplitud
variable, la respuesta global sería la suma de todas las respectivas respuestas impulsivas. Si la

67
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

amplitud cambiante de los estímulos está representada por una función h(t) (lo cual viene
siendo esencialmente el curso temporal del estímulo continuo que queremos descomponer en
una serie de impulsos) el resultado tendría la forma:
t
R(t) = ∫h(τ)f(t-τ)dτ
0

Esta expresión se conoce como una convolución. De lo anterior se desprende que la


respuesta impulsiva de un sistema lo caracteriza totalmente, de la misma manera como lo hace
la función de transferencia de modulación. De hecho, resulta que las dos entidades son
equivalentes en los dos dominios paralelos, y se puede pasar del uno a la otra por una cierta
transformación matemática (que resulta ser, una vez más, la transformada de Fourier). Desde
el punto de vista analítico, la función de transferencia puede ser más conveniente para
proporcionar una panorámica inmediata de las capacidades del sistema, pero por otra parte
obtener la respuesta impulsiva es más expedito. En última instancia, las condiciones
específicas de una medición experimental determinan cuando es preferible un acercamiento o
el otro. Estos argumentos explican porque un fisiólogo, por ejemplo, muy a menudo se ciñe al
uso bien sea de estímulos muy cortos, o bien de estímulos sostenidos pero modulados
sinusoidalmente.

13. Análisis de fluctuaciones


Hemos hablado de ruido, de relación señal-ruido, y de la descomposición de una señal en
sinusoides de diferentes frecuencias. Por último tocaremos un tema muy recurrente en muchos
campos, desde la neurofisiología celular a la biofísica de membranas, y que hace referencia a
todos esos conceptos. El tema surge de la necesidad de caracterizar eventos que son
reproducibles pero muy pequeños y tienden a perderse en el ruido de fondo, y/o ocurren
aleatoriamente con una recurrencia tal que se sobrelapan unos a otros. En ambas instancias el
resultado es una señal eléctrica que fluctúa de una manera aparentemente azarosa e
ininterpretable, y nuestra misión es intentar extraer información sobre las características de la
familia de eventos elementales que dan origen a dicha señal. Esta meta parecería irrealista,
pero realmente se puede lograr, aunque sea de una manera indirecta (ya que los eventos
mismos no son en sí visualizables). Ejemplos relevantes a la biología incluyen la
caracterización de las corrientes eléctricas que fluyen por canales iónicos individuales a partir
de un registro global de la corriente de la membrana (que contiene cientos o miles de canales);
o entender las consecuencias de la absorción de un solo fotón en una célula fotosensible de la
retina, pese a que los efectos puedan ser más pequeños que el ruido eléctrico de fondo.
Sorprendentemente, el análisis de las variaciones irregulares en la señal puede proporcionar
valiosa información al respecto.
Extracción de la amplitud de los eventos elementales
Supongamos que estuviéramos estudiando una señal constituida por la suma de unas ‘ondas’
que son estereotipadas, y ocurren estocásticamente en el tiempo e independientemente unas
de otras. Para empezar, quisiéramos estimar la amplitud de dichos eventos, la cual
desconocemos, y asumimos que realizamos nuestras observaciones en un estado estacionario
(i.e., pese a la variabilidad, no hay ninguna tendencia sistemática de cambio en el tiempo, tal
como un progresivo aumento en la frecuencia de ocurrencia de las ondas). En general, los
cambios en la señal ocasionados por eventos elementales tienden a contrabalancearse:
mientras uno está en su fase ascendiente, otro que lo precedió ya está bajando, etc., y por lo
tanto la señal se mantiene macroscópicamente un nivel estable. Pero a nivel microscópico, el
hecho de que las transiciones elementales no están sincronizadas hace que la señal

68
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

constantemente experimente
fluctuaciones (siempre hay algún
desfase temporal entre el evento que
sube y otro que baja). Es
intuitivamente obvio que para un
determinado nivel promedio, el
tamaño de las fluctuaciones será
mayor entre mas grande el tamaño
de los eventos elementales: por
ejemplo, si la señal fuera un registro
de un potencial bioeléctrico con
amplitud promedio 50 mV, y se
debiera a la producción continua de
Figura 13.1
impulsos espontáneos de 10 mV de
amplitud, evidentemente con la ocurrencia de cada nuevo impulso el cambio en el voltaje
constituiría una fracción considerable del valor promedio registrado: los ‘brincos’ serían muy
notorios y la señal en su totalidad aparecerá muy ruidosa e irregular (Figura 13.1A). Ahora, otro
potencial sostenido de la misma magnitud podría deberse a la superposición de impulsos
similares pero 100 veces más pequeños. Por supuesto, en este caso hará falta 100 veces más
eventos/unidad de tiempo para llegar a totalizar el mismo valor promedio de voltaje. Al ser los
eventos elementales tan diminutos, las transiciones que ocurren cada vez que un nuevo evento
se dispara serán muy pequeñas, respecto al nivel promedio; más aún, al darse con una
frecuencia tan alta será más probable que casi en todo momento tiendan a cancelarse
mutuamente: mientras uno está bajando, casi inmediatamente otro sube, ya que ocurren tan
seguidos, y así sucesivamente. En este caso el potencial bioeléctrico, pese a tener la misma
amplitud promedio que en el caso anterior, tendrá una apariencia mucho más lisa y menos
ruidosa (Figura 13.1B). Esto nos da una idea: si el grado de variabilidad, relativa al valor
promedio, refleja el tamaño de los eventos unitarios, entonces este parámetro debería poderse
estimar a partir de la relación entre alguna medida de variabilidad y de la amplitud media. Los
detalles matemáticos del asunto y su justificación rigurosa exceden los propósitos de esta
introducción elemental al tema, pero es suficiente presentar una descripción que proporcione
un sentido intuitivo a este acercamiento analítico. En primer lugar, se determina la varianza de
la señal y el valor promedio. Tanto la varianza, σ2, como el promedio, μ, se estiman en el
tiempo (es decir, dentro del mismo trazo registrado):
μ = 1/T∫V(t)⋅dt
(T siendo el intervalo de integración). Es como sumar valores sucesivos del voltaje, el cual está
cambiando en el transcurso del tiempo, y promediarlos; sólo que, tratándose de un continuo, no
podemos simplemente sumar y dividir por N (hay una infinidad de valores), sino tomamos la
integral del trazo de voltaje y dividimos por la medida del intervalo considerado. La varianza,
σ2, es calculada como:
1/T ∫(V(t) - μ)2dt])
Tal como en la definición tradicional, restamos del valor del voltaje en cada instante el promedio
(para quedarnos solo con las fluctuaciones alrededor del promedio), elevamos al cuadrado el
resultado (evitando que luego al ‘sumar’ se anulen mutuamente desviaciones positivas y
negativas), e integramos. El cociente entre los dos parámetros estimados proporcionaría
entonces información respecto al tamaño de los eventos unitarios. De esta manera se
obtuvieron los primeros estimativos de la magnitud de las corrientes elementales debidas al
flujo de iones a través de proteínas individuales en la membrana de la célula. Años más tarde,

69
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

cuando se desarrollaron técnicas que hicieron posible medir directamente las corrientes
mediadas por un sólo canal iónico, se pudo corroborar la validez de dichas conclusiones.

Determinación de la cinética de los eventos elementales


Ahora, habiendo inferido la amplitud de los impulsos, podríamos preguntarnos acerca de su
curso temporal, para lo cual acudimos nuevamente al análisis en el dominio de frecuencia.
Eventos elementales lentos, una vez los descomponemos en componentes sinusoidales,
mostrarán una predominancia de frecuencias lentas; eventos rápidos necesariamente tienen
que estar constituidos por frecuencias rápidas. Si los eventos elementales son lo que dan
origen a nuestra señal total, quiere decir que el contenido espectral de ésta última debe reflejar
el de los eventos elementales. Lo que haríamos por lo tanto es examinar el espectro de
frecuencias de la señal para determinar cuáles frecuencias contribuyen sustancialmente. Aquí
la información de interés suele ceñirse a la amplitud de dichos constituyentes, no su exacta
relación de fase. Como tal, la medida más típica es el espectro de potencia, también llamado la
densidad espectral; conceptualmente, ésta se estima sumando los cuadrados de los productos
de la función de interés con senos y cosenos de cada frecuencia. Si una frecuencia dada está
representada en nuestro trazo, el producto de éste con un funciones sinusoidales (seno y
coseno) de dicha frecuencia debe contener, como ya se ha visto, un componente DC (un
término no-periódico que sólo depende de la diferencia de fase entre los multiplicandos): si el
sinusóide presente en nuestro trazo está perfectamente en fase con el seno, esta multiplicación
arrojará el máximo tamaño del componente DC mientras que en la multiplicación con el coseno
se anula (ya que habrá un desfase de 90˚), y viceversa. Si el desfase es parcial con respecto
tanto al seno como al coseno (el caso más general), ambos productos contribuyen un
componente DC, y se trata de usar el teorema de Pitágoras (el cuadrado de la hipotenusa de
un triángulo rectángulo es la suma de los cuadrados de los catetos) para obtener la amplitud de
esa frecuencia en nuestro trazo: la
hipotenusa representa dicha amplitud, y
los catetos sus componentes
ortogonales. Las unidades de medida
resultantes, por lo tanto, también serán al
cuadrado (e.g. V2).

Consideremos un caso concreto. En la


Figura 13.2 se muestran dos instancias
en las cuales un evento ‘elemental’
estereotipado puede tener un curso
temporal bien sea rápido o lento (panel
A). Podría tratarse, por ejemplo, del
cambio de voltaje producido en la
membrana de diferentes células de la
retina al absorber un fotón. Supongamos
que dichos eventos ocurren
repetidamente en el tiempo, de una
forma aleatoria (panel B); el efecto
resultante será la suma de todos esos
eventos, lo cual genera un trazo ‘ruidoso’
(panel C). Sin embargo, es evidente que
las fluctuaciones del trazo de la
izquierda, el cual representa la
superposición de eventos breves, tienden Figura 13.2

70
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

a ser más rápidas que en el trazo de la derecha. Esto se puede analizar cuantitativamente
extrayendo el espectro de potencia en los dos casos: el resultado (panel D) muestra que el
trazo de la izquierda efectivamente está constituido por muchos componentes que se extienden
hasta frecuencias bastante altas; la curva luego cae, indicando que no hay representación de
frecuencias aún mayores. El límite superior se denomina frecuencia crítica (o también
frecuencia de ‘roll-off’) simbolizada como fc. Para el trazo de la derecha, la curva de densidad
espectral muestra un comportamiento cualitativamente similar, pero solo frecuencias
relativamente bajas contribuyen, y el valor de fc se encuentra por lo tanto significativamente
desplazado hacia la izquierda. Con este acercamiento es posible entonces inferir parámetros
de las características temporales de la ‘respuesta unitaria’.

Al final de cuentas, entre las dos estrategias habremos logrado derivar un estimativo tanto del
tamaño como de la rapidez de los eventos elementales cuya superposición ha dado origen a
una señal que aparentemente es irregular y azarosa. Este acercamiento ha sido valioso para
derivar información de un sinnúmero de fenómenos microscópicos cuando su medición directa
no era factible. Entre muchos otros, clarificar que la liberación de neurotransmisores en un
terminal sináptico ocurre en ‘paquetes’ de moléculas, los cuales constituyen la unidad
elemental de la comunicación química entre células; esto permitió finalmente establecer un
nexo con la presencia de vesículas secretorias y con el fenómeno de exocitosis.
Cabe recalcar, sin embargo, que el análisis de fluctuaciones padece de limitaciones: para
poderse aplicar es imprescindible tener un ‘modelo’ inicial. Por ejemplo, hay que asumir que el
ruido está constituido por excursiones rectangulares que se superponen al azar, o que los
eventos elementales decaen en el tiempo según una función exponencial, etc. Muchas veces
consideraciones teóricas dan pie para proponer un modelo plausible para una dada situación y
respaldarlo con argumentos convincentes. Entonces el análisis de fluctuaciones arroja
parámetros interpretables. Pero en ausencia de un modelo, los parámetros que resultan del
análisis de ruido carecen de significado.
Epílogo sobre el dominio de frecuencias
En secciones anteriores la representación de una señal en términos del abanico de frecuencias
que la componen - en lugar de la forma cómo varía en el tiempo (o en el espacio) - ha sido
presentada en dos contextos diferentes: (i) como una herramienta útil para analizar un sistema
lineal y caracterizar la manera cómo éste opera sobre un input para generar su respuesta, y (ii)
como estrategia para extraer las propiedades los elementos constituyentes de una señal
ruidosa, cuando éstos son eventos estereotipados que se sobrelapan al azar. El uso del
dominio de frecuencia es en realidad mucho más ubicuo, y se extiende a un sinnúmero de
aplicaciones en los campos más diversos. De hecho, aún la simple descripción y/o clasificación
de ciertas señales puede resultar ventajosa cuando se basa en su espectro de frecuencias. Un
ejemplo relevante a la biología es el estudio de vocalizaciones animales: escuchar y reconocer
el canto de un pájaro requiere experticias y juicios sujetivos, lo cual es potencialmente
problemático. Aunque se acuda a un registro objetivo, como por ejemplo hacer una grabación y
mostrar gráficamente el tren de las ondas sonoras (i.e. los cambios de presión del aire que
ocurren en el tiempo), el trazo resulta ser complejo y de difícil interpretación. En cambio, a
veces es posible revelar aspectos distintivos de dicha señal si ésta se divide en cortos
intervalos sucesivos y cada uno de ellos se descompone en su espectro de frecuencias (el así
llamado espectrograma). De esta manera pueden aparecer patrones que revelan la estructura
de la vocalización de una manera más clara y objetiva. Esto puede servir para distinguir
especies o tipos de vocalizaciones, proporcionando criterios objetivos de clasificación, así como
para extraer vocalizaciones de un ambiente acústicamente complejo y ruidoso, lo cual puede
ser extremadamente útil para censos en estudios de ecología. La Figura 13.3 muestra dos
espectrogramas de grabaciones del canto de dos especies de pájaros. La abscisa representa el

71
Enrico Nasi: Introducción a la Biofísica – Módulo de Bioelectricidad

tiempo y la ordenada la frecuencia de diferentes


componentes de la vocalización, mientras que
sus respectivas intensidades (y los cambios que
sufren) son representadas por los matices de
gris (en otros casos se usa una escala de
colores para este fin). Es decir, cada corte
vertical representa la descomposición del canto
en un instante dado en su espectro de
frecuencia. Comparada con la apariencia de un
registro del curso temporal de la onda acústica,
el cual es a menudo muy críptico e indescifrable,
se hace evidente una clara estructura que brinda
mayor facilidad de discernir las características
de un canto. En el Internet existen extensas
bases de datos sobre la representación
espectral del canto de numerosas especies de
aves. Este mismo acercamiento ha sido
ampliamente utilizado para analizar el habla
humana.
Entre las aplicaciones médicas, cabe mencionar
Figura 13.3 el uso del dominio de frecuencia para entender
las características de una de-sincronización de
la actividad normalmente coordinada de poblaciones de células. Un caso específico es lo que
ocurre cuando tejido del miocardio, en lugar de excitarse y contraerse rítmicamente de una
manera ordenada, lo hace de una forma azarosa e irregular; esto se ha denominado fibrilación.
Representado en el dominio temporal, un registro de electrocardiograma durante episodios de
fibrilación tiene una apariencia caótica que dificulta la clasificación y la extracción de
información crítica. En cambio la descomposición espectral de puede proporcionar indicios de
una manera más ilustrativa.

72
Módulo 2: Óptica
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

1. Introducción
En este segundo módulo se revisaran elementos básicos de óptica y algunas de sus
aplicaciones. Una pregunta relevante concierne la relevancia de esta rama de la física a la
biomedicina. Desde el punto de vista del funcionamiento de células y organismos, los principios
ópticos sólo vienen al caso en relación al ojo (contrariamente a la bioelectricidad, que es
ubicua). Con lo cual su aplicación a temas fisiológicos es más bien especializada. Sin embargo,
en cuanto a tecnología para observación y monitoreo de función (y, en el caso de la medicina,
diagnóstico e intervención) hay una gran variedad de enfoques ópticos de gran utilidad, lo cual
justifica el esfuerzo invertido en aprender por lo menos los principios más fundamentales.

La óptica es un campo polifacético y complejo, y no constituye una disciplina conceptualmente


monolítica: al contrario, diferentes niveles de explicación, principios y complejidades ocurren,
dependiendo de la escala de energías y de dimensiones espaciales que se estén
considerando. Por un lado, tenemos la óptica geométrica, que es la más simple y contempla el
análisis de rayos que se propagan en línea recta por un medio dado, y solo cambian dirección
al encontrar un medio distinto. Gran parte de los fenómenos relevantes al funcionamiento de la
visión sólo requieren principios de óptica geométrica. Pero para entender otros fenómenos cuya
escala de dimensiones es pequeña (del orden de μm o fracciones), o explicar el funcionamiento
y el desempeño de muchos instrumentos ópticos, es necesario analizarlos en el marco de la
óptica de ondas, que es notablemente más complicada y por lo tanto será considerada sólo de
una manera muy tangencial, haciendo ocasional referencia a sus principios más básicos.

Naturaleza de la luz.
Parte de los motivos por los cuales la teoría de la óptica tiene diferentes marcos conceptuales y
diferentes acercamientos, es que la “materia prima” de la cual trata, es decir la luz, es
concebida de dos maneras diferentes. Cada una de las propuestas proporciona una buena
aproximación para una clase de fenómenos, pero falla en otros, por lo tanto las dos visiones
alternativas coexisten una al lado de la otra:
- Teoría corpuscular: la luz es conceptualizada como un haz de partículas luminosas que
viajan a gran velocidad, planteamiento cuyo exponente may influyente fue Isaac Newton.
o Pro:
ƒ La propagación de la luz procede en trayectorias rectas (en analogía con el principio
inercial de Galileo, que se aplica a cuerpos en movimiento).
ƒ Cuando un haz de luz choca contra la superficie lisa de un sólido, rebota según las
mismas leyes que gobiernan la colisión elástica de un cuerpo contra una pared rígida.
o Contra:
ƒ Las ‘partículas luminosas’ no se chocan entre sí: si dos
rayos luminosos se cruzan, ninguno de los dos altera su
dirección, contrariamente a lo que ocurriría en una colisión
mecánica entre partículas
ƒ Si se intercepta un haz de luz con una pantalla opaca en la
cual hay un pequeño orificio, la hipótesis corpuscular
contemplaría que aquellas partículas que pasan por el
orificio seguirían derecho, las otras serán bloqueadas. Por
consiguiente, si se colocara un detector de luz
directamente al frente del orificio, éste detectaría la luz
(Figura 1.1A, detector verde), pero si se desplazara a un
Figura 1.1

73
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

lado, nada le debería llegar (detector rojo). En cambio, lo que se observa es que la luz
emerge propagándose en todas las direcciones, y un detector ubicado lateralmente
también recibe luz (Figura 1.1B). Este fenómeno ha sido bautizado difracción.

- Teoría ondulatoria: la luz es conceptualizada como una onda que se propaga. Fue
desarrollada por el físico holandés Huygens basándose en una propuesta del erudito inglés
Robert Hooke (inventor de uno de los primeros microscopios).
o Pro:
ƒ Explica la difracción, la cual se verifica fácilmente con otras ondas: por ejemplo, en la
superficie de un liquido si una onda cuyos frentes son rectos encuentra un dique con
una pequeña apertura, al otro lado la onda emerge con frentes concéntricos
ƒ Explica la interferencia: si en el experimento de difracción se usan dos agujeros, la luz
que emerge de cada uno, propagándose en todas
las direcciones, forma un patrón de franjas claras y
oscuras (lo podríamos observar colocando una
pantalla, representada por la línea puntuada en la
Figura 1.2). Viendo la luz como onda es fácil
imaginar que donde las dos ondas se superponen
en fase (i.e. coinciden los picos, como los puntos
donde se interceptan los frentes de onda) las
intensidades se sumarian, pero en las que están
fuera de fase se anularían.
o Contra: Figura 1.2
ƒ Necesidad de un medio por el cual viaje la onda:
como explicar propagación de la luz en el vacío? Un rayo de luz pasa perfectamente
por un tubo evacuado de aire, mientras tenga ventanas transparentes en los dos
extremos. En cambio, eso es imposible con otras formas de ondas conocidas, como
las ondas acústicas. Si una onda representa la perturbación de medio por el cual se
propaga (aire, agua, etc.), ciertamente la persistencia de una onda en ausencia de
todo medio es conceptualmente problemática. Intentos ad hoc de salvar el concepto
propusieron la existencia de un medio intangible, el éter, pero sin un fundamento
verificable.
Si la luz ha de ser concebida como una onda, es imprescindible entonces esclarecer qué es lo
que oscila. Debemos a Maxwell la explicación, según la cual se trata de la oscilación del campo
electromagnético. Aclaremos que quiere decir: en electroestática se propuso que un sistema de
cargas fijas en el espacio puede ejercer una influencia sobre otra carga arbitraria colocada en
cualquier punto del espacio, y denominamos esa función vectorial el campo eléctrico (cuya
existencia es independiente de la presencia o no de la carga de prueba). De la misma manera,
si tuviéramos una o mas cargas que están oscilando, éstas ejercerían una influencia fluctuante
sobre otras cargas eléctricas distantes. Debido a las aceleraciones de las cargas, dicha
influencia incluye un componente magnético, además del componente eléctrico, y decae
linealmente con la distancia (contrariamente a las interacciones electrostáticas, que decaen con
el cuadrado de la distancia); esta última característica hace que el campo electromagnético
pueda influir a distancias mucho mayores. Tratándose solamente de fuerzas electromagnéticas
oscilatorias ejercidas sobre una carga, tales influencias se hacen sentir también a través del
vacio, obviando la necesidad de un medio de propagación. Estas interacciones no actúan
instantáneamente, sino se propagan con una velocidad finita, en una dirección perpendicular a
las oscilaciones de las cargas. Decimos por lo tanto que la radiación electromagnética es una

74
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

onda transversal (lo opuesto, por ejemplo, a una onda acústica, en la cual las moléculas aire se
desplazan oscilando en la misma dirección que la dirección de propagación del sonido, es decir
es una onda longitudinal).
Una vez superado el más insidioso de los obstáculos, es decir la aparente paradoja de una
onda que se puede propagar en ausencia de un medio, el camino pareciera despejado para
afirmar la superioridad de la teoría ondulatoria de la luz, ya que explica variados fenómenos
que simplemente no pueden ser acomodados dentro del marco teórico de la teoría corpuscular.
Pero, no es así, debido a ulteriores observaciones experimentales que nuevamente
proporcionan apoyo a esa visión. Éstas necesitaron el desarrollo de métodos de detección de la
luz extremadamente sensibles; el más conocido, el fotomultiplicador, se esbozará
posteriormente (ver final de la sección 3). Si se tiene un detector de luz y una fuente de luz
cuya intensidad se pueda ajustar, es fácil realizar una serie de mediciones en las cuales se
cuantifica la luz a medida de que ésta se hace progresivamente más tenue. Obviamente, la
respuesta del detector se volverá gradualmente más pequeña, pero cuando los niveles llegan a
ser realmente muy bajos algo inesperado ocurre: la señal del detector no merma ulteriormente,
y se vuelve ‘ruidosa’. Aparentemente, se trata de fluctuaciones cuya amplitud no decrece más y
su curso temporal es estereotipado: la respuesta del detector está constituida por un tren de
impulsos discretos, cuya frecuencia guarda una relación de proporcionalidad con la intensidad
de la luz. Es como si, en última instancia, se estuviera detectando los constituyentes
elementales de la luz, los cuales tienen un cierto tamaño fijo, y lo que cambia es sólo su rata de
llegada. Parece una reivindicación de la teoría corpuscular; no obstante, aún siguen en pie
todas aquellas observaciones (e.g. la interferencia), que parecían invalidar ese planteamiento.
Qué hacer? Para superar esa encrucijada, se desarrolló una nueva propuesta, un marco teórico
algo híbrido que condensas características de ambas visiones (y muchos elementos más, a
menudo contra-intuitivos), y que constituye nuestro esquema más completo y actual para
entender la luz – y otros fenómenos – la óptica cuántica (o ‘electro-dinámica cuántica’). En
nuestra exploración de aspectos y aplicaciones elementales de la óptica, no haremos
referencia explícita a ella, sino tendremos que dejar convivir, según la conveniencia, aspectos
de la óptica geométrica y de la óptica de ondas.

Polarización Considerando la luz como onda transversal, se puede analizar cual es la forma de
esa oscilación en el plano ortogonal a la dirección de propagación. Si, en un espacio tri-
dimensional, llamamos z la dirección de propagación de un haz de luz, el plano de la oscilación
del campo eléctrico es el x-y. La Figura 1.3 muestra una fuente de luz no-polarizada (la
oscilación transversal del vector eléctrico se da
en todas las direcciones en el plano x-y); al
pasar por un elemento llamado polarizador,
sólo se propagan ondas cuyo vector eléctrico
está confinado a una dirección particular;
diríamos entonces que la luz es linealmente
polarizada. Podemos fácilmente percatarnos
de la polarización resultante, porque al
interponer un segundo polarizador orientado a
90° con respecto al primero, prácticamente no
emerge luz alguna. Hay otras posibilidades,
Figura 1.3 sin embargo: por ejemplo, si la oscilación es el
resultado de dos componentes que no están
necesariamente en fase, su forma en el plano x-y sería una elipse, o un círculo. Debido a que
un haz de luz puede volverse polarizado al cruzar un medio en el cual hay una preponderancia
de moléculas alineadas en una cierta dirección, esto nos puede servir para inferir propiedades

75
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

estructurales de un material transparente; viceversa, al irradiar una muestra transparente con


luz polarizada (por ejemplo, una célula), se puede dar transmisión diferencial por diferentes
componentes, lo cual permite visualizar características morfológicas que de otra manera
pasarían desapercibidas. Esto sucede, por ejemplo, con fibras musculares, las cuales
contienen mio-fibrillas compuestas de filamentos de actina y de miosina alineadas.

El Espectro Electromagnético
La luz visible sólo representa la manifestación de una minúscula porción de un fenómeno
llamado radiación electromagnética. Distintas ‘formas’ de esta radiación difieren con respecto a
un parámetro, la frecuencia (vista como onda), o su contraparte, la energía (vista como
partícula). Hay una relación directa, propuesta por Einstein, entre la frecuencia (ν, en unidades
de Hz o s-1) de una onda electromagnética y su energía cuántica (E, en unidades de ergs):
E = hν (h es la constante de Planck = 6.62×10-27 erg⋅sec)
Esta relación nos permite pasar de un marco conceptual al otro con facilidad. Cuando se habla
de luz dentro del marco de la teoría corpuscular, denominamos la partícula luminosa un fotón.

Más a menudo, en lugar de la frecuencia se utiliza la longitud de onda (λ) que es la distancia
que recorre una onda en el tiempo que demora un ciclo de oscilación; en el vacío tenemos:
λ = c/ν (c es la velocidad de la luz en el vacío, ≈ 3×108 m⋅s-1, ν la
frecuencia).
Contrariamente a la frecuencia, sin embargo, la longitud de onda no es una característica
intrínseca de la radiación, sino depende además del medio por el cual se está propagando. Es
fácil ver que si la frecuencia de una onda se
mantiene al pasar de un medio a otro, pero su
velocidad de propagación cambia, la longitud de
onda también cambiará: por ejemplo, si la
velocidad de propagación en el nuevo medio es
menor, la onda avanzará menos por cada ciclo
de oscilación, y la longitud de onda habrá
disminuido de tal manera que en una distancia
dada cabrán más ciclos (Figura 1.4). Así que en
Figura 1.4
un medio en el cual la velocidad de la luz fuera
V, tendríamos:
λ’ = λ V/c
En el aire, la velocidad de propagación de la luz es casi idéntica a la del vacío, pero otros
medios transparentes de mayor densidad como el agua, el aceite, o el vidrio la enlentecen
significativamente. Para lograr entender porque la velocidad de de la luz disminuye, es preciso
desarrollar un entendimiento - aunque sea intuitivo - de lo que implica el proceso de
propagación. Siendo la luz una oscilación del campo electromagnético, inevitablemente ejerce
una influencia sobre la nube electrónica de átomos sobre los cuales incida, induciendo una
oscilación. Pero dicho movimiento a su vez influye sobre otros átomos en la cercanía, y así
sucesivamente. En otras palabras, el proceso de transmisión de luz por la materia transparente
se puede considerar como la repetida absorción y re-emisión inmediata de un fotón de la
misma longitud de onda. Esto explica el porque la velocidad efectiva propagación de la onda
electromagnética resulta ser más lenta que en el vacío.

76
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

El índice de refracción (n) de un material es el cociente entre la velocidad de la luz en el vacío y


su velocidad en dicho medio (llamémosla V):
n = c/V
Índices de refracción (relativos al vacío, tomado como 1.0) de materiales transparentes
comunes, medidos a λ = 589 nm:
Aire: 1.0003
Agua: 1.33
Vidrio: 1.52-1.66 (según la composición)

A pesar de que en la longitud de onda se encuentran entremezcladas propiedades tanto de la


luz como del medio en el cual se propaga (mientras que la frecuencia sí es una característica
intrínseca de la luz solamente), lamentablemente en muchas áreas de la óptica, y
especialmente en óptica fisiológica, se ha adoptado preferencialmente el uso de la longitud de
onda como parámetro que caracteriza la luz, a menudo descuidando especificar el medio y su
índice de refracción.

Luz visible.
La porción del espectro electromagnético que es visible (para los humanos) comprende las
longitudes de onda entre 400 y 700 nm (1 nm = 10-9 m) aproximadamente. Hacia longitudes de
onda más cortas encontramos la radiación ultravioleta (UV, as su vez dividida entre UVA y UVB),
luego los rayos X, los rayos gamma (γ), y los rayos cósmicos. Hacia longitudes de onda más
largas, en cambio, tenemos radiación infrarroja (IR), micro-ondas, radio, etc. (Figura 1.5). Este
rango es supremamente amplio, y va desde billonésimas de milímetro hasta kilómetros; por lo
tanto, lo que nosotros
percibimos como luz es
realmente una franja minúscula.
Porque esta limitación?
Considerando la energía de un
cuanto (E=hν), el espectro
visible es particularmente
idóneo para conllevar
información, porque (i) los
cuantos son lo suficientemente
energéticos para sobresalir con
Figura 1,5 respecto al ruido de fondo (e.g.
la agitación térmica de toda
materia), mientras que, por ejemplo, un fotón infrarrojo no tiene mucha más energía que la
energía térmica de una molécula, especialmente a la temperatura corporal de un mamífero, y al
ser absorbido no haría gran diferencia; (ii) un cuanto visible es capaz de desencadenar
reacciones fotoquímicas ‘inocuas’ (isomerizaciones, excitación electrónica que pueden iniciar el
proceso de señalización), pero no tiene energía suficiente para deshacer enlaces químicos
covalentes, lo cual podría causar daños a tejido biológico (por ejemplo, los efectos
cancerígenos de la luz ultravioleta y de los rayos X). Por lo tanto, la capacidad de absorber
esas otras longitudes de onda puede ser no muy útil, o inclusive dañina, si el propósito es
solamente extraer información del entorno.

77
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

2. Cuantificación de la luz
Es imprescindible disponer de algún criterio para cuantificar la intensidad de un haz de luz, lo
cual requiere una aclaración inicial: consideremos un haz de luz como un flujo de fotones.
Hemos hablado de la energía de fotones de diferentes frecuencias, pero eso se refería a un
fotón individual. Debemos además considerar cuántos fotones fluyen por unidad de tiempo y
por unidad de área, ya que en la energía total del haz de luz ambos factores estarán
implicados. De la misma manera, si pensamos en la luz como onda, además de su frecuencia
(o su longitud de onda) habría que considerar su amplitud (es decir la amplitud de la oscilación
del campo electromagnético).
En general, hay dos enfoques fundamentales para determinar la intensidad de la luz, que
originan sistemas diferentes de unidades de medida. Las técnicas específicas serán
consideradas posteriormente:
Escalas radiométricas
Podemos cuantificar la intensidad de la luz en términos de sus características físicas, lo cual
típicamente hace referencia a algún parámetro de energía. Si una fuente puntual emite luz en
todas las direcciones, el flujo radiante es la energía total emitida por unidad de tiempo (erg×s-1
o W); similarmente, la intensidad radiante es el flujo
restringido a un steradian de ángulo sólido, lo cual se
define como un cono con el vértice en la fuente, tal que a
1 m de distancia la base subtiende una superficie de 1 m2
(Figura 2.1). Alternativamente, si la fuente es puntual, es
1/4π del total del flujo radiante, ya que la superficie total de
una esfera es 4πr2. Las dos medidas anteriores hacen
referencia a la luz emitida por una fuente; también se
puede pensar en la luz que llega a un objeto. La
irradiancia es la intensidad de radiación que incide sobre
una superficie por unidad de área (W/m2). A medida de
que una fuente de luz se aleja de la superficie que ilumina, Figura 2.1
la irradiancia decrece con el cuadrado de la distancia:
consideremos una fuente puntual de luz y una superficie cuadrada sobre las cual inciden los
rayos. Si los rayos divergen y viajan en línea recta, a una distancia del doble estarán incidiendo
sobre un cuadrado del doble de lado, es decir es cuádruple en cuanto a área: por lo tanto, el
flujo de fotones por unidad de área habrá disminuido según el cuadrado de la distancia de la
fuente luminosa (entonces, porque no nos parece que los objetos mas distantes sean más
tenues que los cercanos?). Debido a que los fotones pueden tener energía diferente, uno
podría obtener la misma energía con un haz que consiste de pocos fotones (por segundo) pero
muy energéticos (longitud de onda corta) o con un haz de muchos fotones por segundo, pero
de baja energía (longitud de onda larga); los efectos de los dos rayos podrían ser radicalmente
diferentes. Por lo tanto, en muchas instancias, saber la energía total de una luz sin conocer su
longitud de onda no es suficiente; además, la luz puede ser policromática (i.e. compuesta por
una mezcla de varias longitudes de onda) y uno podría necesitar aclarar como están
distribuidas las intensidades de las varias longitudes de onda que la conforman. Para lograrlo,
haría falta pasar el rayo de luz por un monocromador, en el cual una rejilla de difracción rebota
los rayos de luz a un ángulo distinto según la longitud de onda, separándolos (algo similar al
prisma de Newton que descomponía la luz blanca del sol en un arco iris). Alternativamente, se
pueden utilizar filtros de banda (los cuales sólo dejan pasar longitudes de onda selectas, como
veremos mas tarde). Luego, mediríamos separadamente la intensidad (energía) en cada
banda. La intensidad de la luz en función de la longitud de onda determina el espectro de la luz

78
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

(o, más técnicamente, la irradiancia espectral) Debido a que conocemos la energía de un fotón
en cada banda de longitud de onda, también podríamos convertir tales medidas de energía en
número de fotones, lo cual suele ser mucho más informativo, especialmente para propósitos
fisiológicos. Las complejidades implicadas en cuantificaciones de luz policromática, indujeron la
CIE (la comisión internacional que establece criterios estándar de medición en óptica) a
proponer como punto de referencia para muchas aplicaciones el ‘iluminador estándar A’, el cual
consiste en un cuerpo negro calentado a 2854°K, ya que se conoce exactamente la
composición de su emisión luminosa.
Consideremos un ejemplo práctico, en el cual se pretende cuantificar el flujo de fotones con el
cual estamos iluminando continuamente un objeto. Para este propósito interceptaríamos el rayo
de luz con el sensor de un radiómetro, el cual reporta la potencia de la luz que recibe, es decir,
la energía por unidad de tiempo (e.g. Joules/seg, es decir, Watios); supongamos que la lectura
arrojara el resultado ’40 μW’. Si queremos saber cuántos fotones por segundo por cm2
representa esa intensidad, es preciso saber la energía por fotón, lo cual solamente está
definido si la luz es monocromática: la relación de Einstein nos dice que E = hν = hc/λ. El valor
de h, la constante de Planck es h= 6.6262×10-34 J×Hz-1 (o J×seg), y c (la velocidad de la luz en
el vacío) es 2.998×108 m×s-1. Si se tratara de una luz de 500 nm, entonces:
E = 6.6262×10-34 J×seg ×2.998×108 m×s-1/500×10-9 m = 3973.1×10-22 J
Con eso podemos concluir que nuestros 40 μW = 40×10-6 J×s-1 corresponden a:
40×10-6 J×s-1/3973.1×10-22 J ≈ 1014 fotones/seg
Ahora se necesita ulterior información, porque podría tratarse de un rayo estrecho e intenso, o
la misma cantidad de fotones podría estar distribuida en un área mayor (con lo cual la
intensidad del rayo resultaría menor): es decir, necesitamos conocer la densidad del flujo de
fotones por unidad de área. Si se trata de una rayo ancho, del cual sólo una porción fue
captada por un sensor de área 0.5 cm2, la densidad del flujo de fotones por unidad de área
(cm2) será 1014/0.5 = 2×1014 fotones×s-1×cm-2. Alternativamente, podría tratarse de un rayo
estrecho, menor que el tamaño del sensor, por ejemplo de 5 mm2 (0.05 cm2); en este caso el
parámetro relevante es el área de sección del rayo, no la del sensor, y obtendríamos 1014/0.05
= 2×1015 fotones×s-1×cm-2. Finalmente, si en lugar de iluminación continua se tratara de un
destello de duración finita, podríamos saber el número total de fotones en el destello
multiplicando el flujo por la duración.
Escalas fotométricas
Alternativamente, podemos cuantificar la luz en términos de los efectos sobre un observador (lo
cual, por supuesto, depende de su sensibilidad). La fuente de luz utilizada para determinar la
sensibilidad de los humanos era la candela (una vela fabricada con ciertas especificaciones,
cuya intensidad – o flujo luminoso – se definió como 4π lumens). Esta fuente fue luego
reemplazada por un emisor negro calentado a la temperatura de fusión del platino, 2042°K).
Una serie de unidades de medida fotométricas han sido desarrolladas, que son homólogas a
sus contrapartes radiométricas: por ejemplo, la iluminancia es el equivalente fotométrico de la
irradiancia, etc. De allí se establecieron equivalencias de efectividad de estimulación a distintas
longitudes de onda, según lo percibido por un “observador estándar” (con todos los caveats
variaciones entre individuos, y las diferencias entre visión diurna o fotópica y visión nocturna o
escotópica...). La jungla de unidades derivadas es impenetrable para el novato: lumen,
candelas, trolands, lamberts, etc.).

79
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

3. Absorción de la luz
La primera forma de interacción entre luz y materia a ser considerada es la absorción. Cuando
un rayo atraviesa un medio y la intensidad del rayo que emerge es menor que la del rayo
incidente, parte de la luz ha sido absorbida. Llamemos φ(x) la función que representa la
intensidad de la luz en función de la distancia recorrida por la luz en el medio absorbente. Si
consideramos una capa delgada de material parcialmente absorbente, y denotamos con φo la
intensidad de la luz incidente, la magnitud del cambio al atravesar el medio es proporcional a (i)
la intensidad, (ii) una constante k, característica del medio y denominada el coeficiente de
absorción, y (iii) el espesor de la capa de material por la cual pasa el rayo, Δx:
Δφ = -k φ Δx ⇒ Δφ/Δx = -kφ.
(el signo negativo es debido a que la intensidad de la luz va disminuyendo al pasar por un
medio absorbente). Tomando el límite cuando la capa se hace infinitesimalmente delgada,
obtenemos:
dφ/dx = -kφ.
Esta ecuación diferencial tiene como solución la función:
φ(x) = φoe-kx
Esta relación se conoce como la Ley de Lambert. Notar que lo que se pierde en intensidad es
la suma de las pérdidas a lo largo del camino, pero es erróneo pensar que entonces uno podría
sencillamente considerar que para cualquier cuerpo
arbitrariamente espeso la absorción es proporcional a su
espesor: esto se debe a que si en la primera capa se absorbe
una cierta fracción de la luz incidente, le llega menos luz a la
segunda capa; si la misma fracción de luz es absorbida por la
segunda capa, la pérdida representa un cambio absoluto
menor que en la capa anterior. Aún menos luz llega a la
tercera capa, así que la cantidad que se absorberá decrece
ulteriormente, y así sucesivamente. La Figura 3.1A ilustra este
proceso asumiendo que cada 2 capas laminares del medio
absorbente se pierde la mitad de los fotones (las cruces
verdes representan los fotones que dejan de existir al ser
absorbidos, las flechas rojas los que sobreviven y siguen
adelante). De allí la necesidad de calcular por separado en
cada capa delgada, integrando la ecuación diferencial (dφ/dl =
-kφ): el resultado que se obtiene nos dice que la cantidad de
luz que emerge (o su complemento, la que ha sido absorbida)
Figura 3.1
no se relaciona linealmente sino exponencialmente con el
espesor del medio que la luz ha de atravesar (Figura 3.1B).

A su vez, el coeficiente de absorción de un medio debe depender de la absorción característica


de las moléculas individuales que están absorbiendo luz, es decir, lo que se denomina el
coeficiente molar de extinción, que suele designarse con la letra ε. Por supuesto, entre mayor el
número de dichas moléculas por unidad de volumen, mayor la absorción; así que la absorción
depende, además, de la concentración de las moléculas absorbentes, C. Juntando estas dos
consideraciones, obtenemos la Ley de Beer: k = Cε, y combinando las dos leyes, obtenemos
una expresión general para la absorción por un medio en el cual la luz es absorbida por
moléculas con coeficiente de extinción ε, presentes a una concentración C:

80
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

φ(x) = φoe-Cεx
ε ∅ M-1cm-1, para que el término exponencial resulte sin dimensión. Este enunciado se conoce
como la ley de Beer-Lambert. De esta ley se desprende que, conociendo ε y la distancia
recorrida por la luz en el medio absorbente, x, uno puede calcular la concentración de una
sustancia:
φ/φo = e-Cεx ⇒ ln(φ/φo) = -Cεx, i.e. C = -ln(φ/φo)/εx.
Por ejemplo, supongamos que una sustancia tuviera ε = 10000 M-1cm-1, y, medida en una
cuveta de 1 cm, la luz disminuyera al 10% de la intensidad incidente. Entonces:
C = -ln(1/10)/(10000×1) = 2.3/10000 M = 230 μM.
Viceversa, midiendo la absorbancia de una sustancia, podríamos averiguar el coeficiente de
extinción conociendo su concentración. Por consiguiente, un instrumento capaz de medir la
absorción (un fotómetro) es de gran utilidad en un laboratorio bioquímico.

En general, la absorción no es igual para toda longitud de onda, λ, y por lo tanto ε no es un


simple número, sino una función de λ, i.e. ε(λ). La variación del coeficiente de extinción con la
longitud de onda da origen al espectro de absorción, una
representación gráfica de la absorción (en el eje Y) en
función de la longitud de onda (en el eje X). Su
contraparte es el espectro de transmisión, el cual se
obtiene graficando la fracción de luz transmitida (i.e. 1-
fracción absorbida) en función de la longitud de onda. El
espectro de absorción es característico para distintas
moléculas, lo cual lo hace muy útil para identificar la
presencia de una cierta sustancia en un compuesto. Por
ejemplo, la gráfica de la Figura 3.2 ilustra el espectro de
absorción de la hemoglobina, la molécula que transporta
Figura 3.2 oxígeno en la sangre (los dos trazos corresponden a la
forma oxigenada y de-oxigenada, respectivamente). La
identificación de esos picos característicos en el espectro de absorción obtenido de una
muestra puede permitir detectar la presencia de sangre en dicha muestra.

Un medio que selectivamente absorba ciertas longitudes de onda hace que la composición
espectral de la luz que lo atraviese se altere. Por ejemplo, si la luz incidente es blanca (i.e.
compuesta por una mezcla balanceada de todas las longitudes de onda visibles) y el medio
absorbe solamente ondas menores que un cierto límite, digamos 580 nm, lo que emerge es un
rayo que se percibe como rojo (λ>580 nm). Este es el principio por el cual se genera luz de
colores con los tipos más comunes de filtros cromáticos.

En lo que se ha discutido, el coeficiente de extinción y la cantidad de luz absorbida se han


presentado como variables continuas. Sin embargo, hay que recalcar que la absorción de un
fotón es un evento del todo-o-nada: si el material por el cual transita absorbe el fotón, éste deja
de existir y toda su energía es transferida a la molécula que lo absorbió; si no, el fotón sigue sin
haber perdido nada de su energía. Pero tampoco se trata de un evento determinista, sino
aleatorio: a una cierta longitud de onda hay una cierta probabilidad de que un fotón sea
absorbido (los que lo son, dejan de existir, los que no siguen su existencia).
Macroscópicamente, según que tan alta o baja sea esta probabilidad en diferentes materiales,
obtenemos un continuo de valores posibles para el coeficiente de extinción, pero éste
representa el promedio de un gran número de eventos del todo-o-nada.

81
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Efectos de la luz absorbida


La absorción es esencial para toda instancia en la cual la luz ha de ejercer un cierto efecto
sobre la materia. Esto incluye todo acercamiento para cuantificar la luz: sin la absorción que
transfiera la energía del fotón al medio por el cual transita, no habría rastro de su paso o de su
existencia, y sería imposible detectarla. Por lo tanto, todo medidor de energía radiante debe
poder absorber la luz a las longitudes de onda de interés; en general, sería deseable que la
absorción fuera total, con lo cual el problema de la medición se reduciría a determinar cuánta
energía ha sido transferida al instrumento. Pero en la práctica el detector tiene su característico
espectro de absorción, y uno ha de proceder por bandas limitadas, midiendo cuánta energía ha
sido absorbida en cada banda, corrigiendo luego por la fracción que no ha sido absorbida.
Es preciso esbozar los tipos de efectos que puede tener la luz al ser absorbida. Éstos
dependen por una parte de la energía del fotón y por otra parte de las configuraciones o
estados energéticos posibles en la molécula. Desde el nivel energético más bajo, que la
molécula suele mantener en su estado basal, un ‘input’ energético modesto puede inducir
vibraciones o rotaciones; uno más substancial puede además tener la capacidad de causar
isomerizaciones, o hacer que un electrón se desplace temporalmente a un orbital superior; y
finalmente, la absorción de una cuanto muy energético puede causar la pérdida de un electrón,
liberándolo de su asociación con el núcleo y dejando la molécula en estado ionizado. Debido a
que la energía de un fotón es inversamente relacionada con su longitud de onda, se puede
apreciar el porqué ciertos cambios moleculares estructurales potencialmente dañinos ocurren
con luces de onda corta (e.g. UV), mientras luces de onda larga (e.g. infrarrojo) sólo tienden a
inducir un calentamiento. Estos diversos efectos dan origen a diferentes maneras de detectar la
luz, y de cuantificar su intensidad.
• Mediciones bolométricas. Si la energía de los fotones incidentes es demasiado baja para
desencadenara cambios químicos en el material que los absorbió, la energía transferida se
ha de convertir en calor (es decir, manifestarse en una mayor agitación térmica de las
moléculas, bien sea en forma de vibraciones o rotaciones). Entonces, una manera de medir
la radiación es tener un cuerpo negro, i.e. cuya absorción sea total a todas las longitudes de
onda, y determinar los cambios de temperatura que sufre al ser expuesto a la luz. Este
instrumento, que se conoce como termopila, permite mediciones de gran precisión, y es
especialmente idónea para luz de longitudes de onda relativamente largas. Algunos
organismos que son sensibles a luz infrarroja (ciertas serpientes del desierto y escarabajos
que viven en cuevas) la detectan debido a la exquisita sensibilidad de algunas de sus
células a diminutos cambios de temperatura.
• Detección fotoquímica. Por otra parte, los fotones absorbidos podrían tener suficiente
energía para gatillar algún cambio estructural: la mayoría de los organismos biológicos
utilizan una detección fotoquímica, mediada por
moléculas cuyas características son alteradas por la
luz de una manera que las haga propensas a sufrir
ciertas reacciones químicas, pero sin llegar a ser
ionizadas (i.e. sin la pérdida de un electrón). En el
caso del ojo la luz es absorbida por un fotopigmento
llamado rodopsina, cuyo coeficiente de extinción es
muy alto (≈40000 M-1cm-1), y está presente en alta
‘concentración’ (>108 moléculas/célula). En los
bastones, el fotopigmento absorbe luz
particularmente a λmax ≈500 nm (lo que un Figura 3.3
observador humano llamaría luz verde). Cabe

82
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

mencionar que la rodopsina es una molécula protéica, y las proteínas normalmente no


absorben luz en el rango visible: para adquirir esa capacidad, la parte protéica de la
molécula, llamada opsina, se liga a otra molécula no protéica, un grupo prostético que
absorbe luz visible y se denomina el cromóforo. El panel superior de la Figura 3.3
representa esquemáticamente la opsina como un ‘manojo’ de 7 cilindros, que representan
los dominios que cruzan la membrana formada por una bi-capa lipídica. En el centro de la
proteína se encuentra el cromóforo (constituido por un anillo aromático y una cadena de
hidrocarbono), En el caso del ojo, el cromóforo es un derivado de la vitamina A (aldehído de
vitamina A, llamado 11-cis-retinal); la absorción de un fotón por el cromóforo altera su
conformación (lo foto-isomeriza, cambiándolo a 11-trans-retinal; ver panel inferior de la
Figura 3.3) lo cual inicia una series de eventos bioquímicos que señalizan la recepción de la
luz. Posteriormente, otro ciclo complejo devuelve el fotopigmento a su conformación inicial,
permitiéndole estar listo para responder nuevamente a la llegada de otro fotón.

• Mediciones fotoeléctricas. Finalmente, una forma alternativa de detectar luz es utilizando


materiales que sufran un cambio más drástico al absorber fotones, y pierden un electrón,
quedando por lo tanto en estado ionizado. Este el efecto fotoeléctrico (descubierto por
Einstein), y por supuesto es más propenso a ocurrir con radiación electromagnética de alta
energía. Sin embargo, hay materiales (compuestos de cesio-antimonio, principalmente) en
los cuales los electrones en los orbitales externos están débilmente asociados con sus
respectivos núcleos; el impacto energético de un fotón absorbido, aún de longitud de onda
visible, los puede liberar. Esto se puede utilizar de diferentes maneras. En un caso, el
material en cuestión se mantiene a un potencial negativo (fotocátodo) respecto a otra placa
cuyo potencial es más positivo (ánodo) y que va a atraer los electrones liberados. Midiendo
la corriente eléctrica constituida por el fluir de estos electrones se tiene una medida de los
fotones incidentes. La eficiencia del proceso de absorción y liberación de electrones se
conoce como el coeficiente de eficiencia cuántica. Usualmente, aún con una relación
fotón:electrón óptima (1:1), el efecto es insuficiente para observar corrientes conspicuas:
por ejemplo, una luz de mediana intensidad puede tener 1014 fotones⋅s-1⋅cm-2, así que, si un
fotocátodo de 1 cm2 la absorbiera con eficiencia del 100% la corriente sería de 1014
electrones/segundo. Puesto que hay 6.24 × 1018 cargas elementales en 1 Coulomb, quiere
decir que la corriente generada sería ≈ 16 μA (millonésimas de Amperio) en el más
favorable de los casos. Por
consiguiente, especialmente
cuando la luz es tenue, es
deseable interponer algún
estadio de amplificación para
poderla detectar confiablemente.
Para este propósito, el electrón
desplazado por el fotón incidente
es acelerado por un campo
eléctrico, colisiona con una
segunda placa (‘dínodo’) en la Figura 3.4
cual, gracias a la energía
adquirida por el fotón acelerado, el impacto libera varios electrones secundarios, que a su
vez son acelerados por un campo eléctrico y colisionan con otro dínodo, y así
sucesivamente, generando una corriente final considerablemente agrandada. La ganancia
total que se obtiene depende del factor de amplificación en la liberación de electrones
secundarios en cada estadio (a su vez debido al voltaje aplicado, el cuál gobierna la
energía cinética adquirida por un electrón antes de colisionar con un dínodo), y del número

83
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

de dínodos. Este aparato, ampliamente utilizado en física y biomedicina, se denomina


fotomultiplicador, y se ilustra en la Figura 3.4.
En otros sensores fotoeléctricos, en cambio, se explota el hecho de que los electrones
desplazados por la llegada del fotón dejan atrás una carga electropositiva. Si se deja
acumular esta carga durante un cierto tiempo de exposición a la luz (el intervalo de
integración) y luego se mide el potencial resultante, se tiene una determinación de la
cantidad de luz que ha incidido. Este principio (y variaciones sobre el tema) se ha utilizado
ampliamente en la fabricación de sensores para cámaras digitales (e.g. CCD).

84
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

4. Óptica Geométrica
Además de la absorción, existen otras dos formas de interacción entre luz y materia, la
reflexión y la refracción, las cuales son relevantes a los tópicos que trataremos en esta revisión.
A diferencia de la absorción, éstas no implican la aniquilación del fotón, sino solamente un
cambio en su dirección, sin pérdida de energía.
Reflexión
Ésta se da cuando un rayo de luz que se propaga por un cierto medio encuentra la interfase
con un medio diferente y no lo penetra, sino que rebota. Fenomenológicamente, se puede
hacer una distinción entre dos clases de superficies reflectivas: reflexión especular ocurre
cuando la superficie en la cual rebota el haz de luz es muy lisa, i.e. tiene ‘irreguaridades’ que
son pequeñas, comparadas con la longitud de onda de la luz
utilizada. Si un rayo llega a una superficie plana reflectiva,
rebota con una trayectoria que forma un ángulo, con respecto
a la normal de la superficie, que es igual al ángulo que forma
el rayo incidente: θr = θi (Figura 4.1A). Un espejo es el ejemplo
típico. Si en cambio la superficie fuera áspera, cada uno de
los rayos paralelos en el haz se choca con una superficie
cuya orientación local es distinta (a escala microscópica), y
por lo tanto el ángulo de reflexión va a ser distinto para
distintos rayos; la dispersión que resulta hace que la luz
rebotada sea difusa (por ejemplo, una hoja de papel). Se
puede demostrar que en un difusor perfecto la intensidad de
la luz que rebota es máxima en la dirección normal a la
superficie, sin importar el ángulo de incidencia, y decrece en
otras direcciones con el coseno del ángulo con la normal
(Figura 4.1B). Cuando la reflexión no se da de manera igual
Figura 4.1
para todas las longitudes de onda, sino que alguna banda
selecta es reflejada preferencialmente, el material adquiere características cromáticas: el color
que vemos en cualquier objeto opaco (no transparente) es precisamente debido a que, pese a
ser iluminado con una luz blanca, sólo rebota ciertas longitudes de onda, mientras que absorbe
las otras. El principio de conservación de energía exige que podamos dar cuenta de lo que le
sucedió a la totalidad de la luz incidente: si no toda la luz rebota de un objeto, debe ser que una
parte bien sea ha sido absorbida o bien ha sido transmitida por ese objeto.

El principio de distancia mínima


El comportamiento de la reflexión especular (es decir, la
igualdad de los ángulos θr y θi) se puede predecir asumiendo
que la trayectoria de todo rayo reflejado que viaje de un punto
A hasta un punto B utiliza un recorrido cuya longitud es la
menor entre todas las posibles trayectorias rectilíneas que
reboten del espejo. Esto se puede deducir de una simple
construcción geométrica ilustrada en la Figura 4.2:
consideremos un rayo que emana del punto A, dirigido hacia
el punto P, el cual se encuentra en la superficie de un reflector
plano. Por la ley del espejo su trayectoria al rebotar lo llevará
al punto B (θr=θi). Hagamos la ‘reflexión’ de este segmento PB
Figura 4.2
con respecto al plano horizontal, obteniendo el segmento PB’,
de idéntica longitud. Este es co-lineal con la continuación del

85
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

rayo incidente, AP, debido a que α+θ = 90°, por lo tanto 2×α+θr+θi = 180°. Ahora consideremos
cualquier otra trayectoria alternativa que fuera de A hasta B, rebotando por otro punto P’ en la
superficie del espejo; el tramo P’B tendría la misma longitud que su reflexión, P’B’. Pero
evidentemente AP’ y P’B’ no son co-lineales, y, como la distancia menor entre dos puntos es la
línea recta, esta nueva trayectoria entre A y B necesariamente será más larga que la original
que pasaba por P. Es decir, la más corta es aquella para la cual se cumple que θr = θi.

Formación de imágenes por espejos curvos


Si, en vez de un plano, la superficie de un reflector especular es curva, distintos rayos se
chocan contra la superficie con un ángulo diferente, y por lo tanto serán desviados en
direcciones diferentes. Si la forma del reflector fuera una parábola, todos los rayos de un haz
paralelo (‘colimado’) serían enfocados en un solo punto (llamado el foco). Analicemos el
porque. La parábola es el lugar geométrico de todos los puntos equidistantes de una línea
(llamada la directriz) y un punto, éste último siendo el foco (F en la Figura 4.3A). Se puede
considerar el haz de rayos paralelos como si emanaran de un solo punto ubicado al infinito.
Ahora examinemos el recorrido de los diferentes rayos,
hasta rebotar del espejo y llegar al foco. Tracemos una
línea paralela a la directriz, que pase por el foco (la línea
L’ en la Figura 4.3A); todos los rayos llegarían hasta esta
línea habiendo recorrido la misma distancia desde la
fuente. Para cualquier punto sobre la parábola las
distancias que lo separan del foco y de la línea L’ suman
una misma constante: si x es la distancia a la tangente al
vértice de la parábola, esos dos tramos tienen longitud
a+x (por definición de parábola) y a-x, respectivamente
(ver Figura 4.3A); su longitud conjunta es por lo tanto 2a.
En otras palabras, el camino faltante desde L’ hasta
rebotar de la parábola y llegar a F es igual para todos los
rayos: si todos los caminos son equivalentes en distancia,
por el principio de distancia mínima todos ellos constituyen
trayectorias viables – el haz de luz desde el punto
infinitamente lejos no excluye ninguna, y los diferentes
rayos se concentrarán en el punto focal F. Si en cambio
los rayos que inciden sobre el espejo parabólico no son
paralelos sino emanan de un punto ubicado a una
distancia finita (y por lo tanto son divergentes), también se Figura 4.3
enfocarán en un punto luego de haber rebotado del
espejo, pero este punto se encontrará a una distancia tal que:
1/do + 1/di = 1/f
Donde do= distancia del espejo al objeto, di= distancia de la imagen al espejo, según ilustra la
Figura 4.3B. Si el punto luminoso (el objeto) no esta en el eje central del espejo parabólico (el
eje óptico) su imagen se formará en el mismo plano pero desplazada lateralmente. Puesto que
un objeto puede considerarse como una colección de puntos, de cada uno de los cuales emana
luz, si la luz proveniente de cada uno de los puntos del objeto es enfocada en algún punto en el
mismo plano (el plano focal), se forma una imagen del objeto. Este es el principio por el cual
funciona un telescopio astronómico.
Aunque sólo un espejo perfectamente parabólico cumpliría estrictamente el requisito de enfocar
un haz colimado en un punto, el mismo comportamiento aproximado se obtiene con un espejo
esférico (el cual es mucho más fácil de fabricar), siempre y cuando uno se pueda ceñir a los

86
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

rayos cercanos al eje central del espejo (‘rayos paraxiales’), mientras los de la periferia se
desvían significativamente. En este caso podemos enunciar la ley de formación de imágenes
por un espejo curvo como:
1/do + 1/di = 2/r , donde r es el radio de curvatura del espejo
Refracción
Naturaleza de una interfase refractiva. Si el material al cual llega la luz no es reflectivo sino
transparente, entonces el rayo no rebota sino penetra el nuevo medio, pero la trayectoria podrá
verse alterada (i.e. no sigue necesariamente la misma recta, como haría un rayo que se
propaga por un medio homogéneo). La figura 4.4 muestra un rayo incidente (flecha negra a la
izquierda) que incide oblicuamente sobre la superficie de un material transparente, y su ruta se
desvía del camino rectilíneo (línea puntuada). El cambio de trayectoria está descrito
cuantitativamente por la ley de Snell (matemático holandés):
Sin(θi)/ Sin(θr) = n2/n1
Donde θi y θr son los ángulos que forma la dirección del rayo incidente y el rayo refractado,
respectivamente, con respecto a la normal a la interfase entre los dos medios (es decir la
perpendicular al plano, línea roja). Podemos
designar N21 como n2/n1, lo cual viene siendo igual a
λ1/λ2 (ver definiciones en la Introducción); el número
N21 es entonces el índice relativo de refracción, y
refleja la velocidad relativa de propagación de la luz
en los dos medios. Notar que si el rayo se propaga
de un medio menos denso (refractivo) a uno más
denso, el ángulo de propagación se alterará hacia la
dirección de la normal, y viceversa. Consideremos
unos casos representativos para desarrollar un
sentido intuitivo del comportamiento de un rayo
refractado. En la Figura 4.5 se presentan tres Figura 4.4
instancias de rayos de luz que inciden sobre la
interfase con un medio de mayor índice de refracción, bien sea perpendicularmente o con un
ángulo progresivamente más oblicuo. En el caso de un rayo perpendicular a la superficie de la
interfase con el nuevo medio (panel A), el rayo seguirá derecho sin alterar su rumbo (si θi = 0°
entonces Sin(θi) = 0 pero Sin(θi) = N21Sin(θr) ⇒
Sin(θr) = 0 i.e. θr = 0). Si el rayo incidente en
cambio forma un ángulo de aproximadamente 50°
con respecto a la normal de la interfase, el rayo
refractado se desviará significativamente de la
trayectoria rectilínea, y formará un ángulo de 30°
(panel B). En el panel C, el ángulo de incidencia
es aún mayor (75°), y el grado de desviación es
también más pronunciado.

Figura 4.5

87
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Principio de Fermat de tiempo mínimo


Si consideramos el punto inicial y el punto final del rayo de luz en la Figura 4.6, evidentemente
el recorrido, al no ser rectilíneo, no es el camino más corto entre los dos puntos; en otras
palabras, no se cumple el principio de distancia mínima que se observa en un espejo. Sin
embargo, hay una consideración que abarca ambos casos: el físico y matemático Fermat
demostró que el
comportamiento de un rayo
refractado se puede predecir
postulando que el camino que
la luz toma al propagarse por
dos medios distintos es aquel
que minimiza el tiempo de
propagación. Esto implica una
optimización, en la cual se
acorte el recorrido por el medio
que enlentece más la luz, a
costas de un recorrido más
largo por el medio en el cual la
velocidad de propagación sea
mayor. El postulado de Fermat
realmente también incluye al Figura 4.6
de la distancia mínima
previamente enunciado para espejos, ya que, si un rayo rebota de un reflector (y por lo tanto
sigue propagándose por el mismo medio), la trayectoria que minimiza la distancia también
minimiza necesariamente el tiempo de viaje. Cuantitativamente, el principio de tiempo mínimo
predice exactamente la ley de Snell, la cual se puede igualmente derivar de las ecuaciones de
Maxwell, pero su derivación excede el propósito de estas notas.

Refracción y el principio de Huygens


A continuación se presenta una ‘explicación’ más fácil de comprender intuitivamente, la cual
está basada en óptica de ondas. Existe un principio formulado por el físico y matemático
holandés Huygens, que ha sido de gran utilidad para comprender una variedad de fenómenos
ópticos (por ejemplo, la difracción). Según su enunciado, la propagación de una onda luminosa
se puede reconstruir considerando cada punto individual de un frente de onda como el origen
de una onda esférica, y formando el nuevo frente de
onda tomando la envolvente de dichas ‘mini-ondas’.
En la Figura 4.7 se muestra un haz de luz cuyos rayos
paralelos están representados por flechas negras;
desde la teoría ondulatoria se puede pensar en unas
ondas planas, cuyos frentes (las ‘crestas’, indicadas
por las líneas verdes) son paralelos entre sí, y
perpendiculares a la dirección de propagación. El
perfil de las oscilaciones está indicado por la curva
sinusoidal a un lado. En cada frente, cada punto puede
considerarse como el origen de una onda esférica; en
el diagrama se consideraron unos pocos puntos y se
ha dibujado la onda que se irradia desde esos puntos,
habiendo recorrido un ciclo de oscilación. La tangente
a esos círculos forma el nuevo frente. La separación Figura 4.7
entre éstos, es decir, la distancia entre las líneas

88
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

verdes, depende de que tanto las ondas elementales hayan avanzado durante el intervalo
necesario para completar un ciclo de oscilación. Este haz de luz incide oblicuamente sobre la
superficie plana de un medio transparente en el cual la velocidad de propagación es menor
(mayor índice de refracción). Consideremos las ondas elementales que emanan de cada punto
de incidencia de los diferentes rayos en la interfase. El rayo A, teniendo que recorrer menos
camino para alcanzar la interfase, llega antes que los otros. En el tiempo de un ciclo, cuando el
rayo B también llega a la interfase, se ha por lo tanto generado una onda esférica en el nuevo
medio, pero ésta es de menor diámetro debido a la reducida velocidad de propagación. Un ciclo
más tarde ésta habrá avanzado al segundo círculo concéntrico, mientras se ha completado el
primer círculo para el rayo B y simultáneamente el rayo C alcanza la interfase. Y así
sucesivamente. Ahora tomemos la tangente a estos círculos para cada ciclo, formando los
frentes de onda que se propagan en el nuevo medio. Debido al menor diámetro de las ondas
esféricas, estos frentes tienen una diferente inclinación respecto a los que avanzaban por el
medio original. La dirección de propagación, la cual es perpendicular a los frentes, muestra por
lo tanto el cambio de rumbo del haz, es decir la refracción.
Falta sólo esbozar aunque sea de una manera muy somera el porqué la velocidad de la luz
habría de mermar, respecto a su valor en el vacío, cuando penetra un medio transparente (una
explicación detallada y rigurosa requiere conceptos que exceden el propósito de esta
introducción elemental). Un fotón, al encontrar materia, interactúa en primer lugar con la nube
electrónica que constituye la porción exterior del átomo. Inevitablemente, el campo
electromagnético oscilante del fotón perturba la posición del electrón, induciéndolo a oscilar con
la misma frecuencia. Pero el movimiento oscilatorio de una carga (el electrón) produce a su vez
un campo electromagnético, con una diminuta demora. En otras palabras, cuando hablamos de
luz que se propaga sin pérdidas por un medio transparente, lo que en realidad sucede es la
‘absorción’ de la energía del fotón por un electrón, y la casi inmediata re-emisión de otro fotón
de la misma frecuencia. Este proceso repetitivo necesariamente implica un enlentecimiento de
la propagación, respecto al vacío.

Lentes
En lugar de usar una superficie plana para refractar la luz por un medio como el vidrio, se
puede arreglar una curvatura de la superficie de tal
manera que distintos rayos que emanan de un punto
dado al llegar al vidrio encuentren un ángulo de
incidencia distinto, que los haga doblar
diferencialmente. En el panel A de la Figura 4.8 se
ilustra el concepto. No es necesario, sin embargo, que
los rayos permanezcan en el nuevo medio, sino puede
tratarse de un trayecto limitado por el material de mayor
índice refracción, luego el rayo vuelve al aire. En el
panel B de la Figura 4.8 se muestra que un rayo que
incide oblicuamente sobre la primera superficie (cuya
orientación está indicada por la línea tangente roja) no
sigue su trayectoria inicial (línea punteada), sino se
empina hacia la normal a la superficie (línea continua
negra). Al salir al otro lado, debido que esta vez el
cambio de índice de refracción es una disminución, el
rayo se acuesta hacia la tangente. Las dos
desviaciones que ocurren en las dos interfases
contribuyen a la alteración total impartida al recorrido
Figura 4.8
del rayo de luz. Esto es la esencia de un lente. La

89
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Figura 4.9 muestra tres ejemplos; en cada caso los rayos del
haz paralelo que se dirigen al centro del lente (el ‘eje óptico’)
inciden a 90° y por lo tanto siguen derecho sin ser desviados,
pero los que llegan a la periferia encuentran una superficie
más y más oblicua, según la distancia desde el centro, y por
consiguiente sufren desviaciones progresivamente mayores.
Con una cierta forma de la superficie curva, el resultado es que
todos los rayos que emergen al otro lado del lente llegan a
cruzarse en un mismo punto (el punto focal) cuya distancia
desde el lente se denomina la longitud focal (o distancia focal)
del lente y se simboliza con la letra ‘f’. Entre mayor la curvatura
del lente, más cerca el punto donde convergen los rayos
(menor la distancia focal f). Esto define el poder refractivo (o
dióptrico) de lente. Las trayectorias de los rayos de luz no
tienen una direccionalidad intrínseca (la ley de Snell es Figura 4.9
simétrica); por lo tanto, invirtiendo la dirección, podemos decir
que la longitud focal también representa la distancia del lente a la cual, si se coloca una fuente
luminosa puntual, los rayos emergen paralelos al otro lado (i.e. forman un rayo ‘colimado’).

Si el objeto puntual no se coloca a la distancia focal, sino a una distancia mayor que f los rayos
no emergen paralelos al otro lado, sino se enfocan en un punto, como ilustra la figura 4.10B y
C. Para un lente delgado (el caso más simple), la
relación se puede cuantificar de la siguiente
manera:
1/do + 1/di = 1/f
Donde do= distancia del lente al objeto, di=
distancia de la imagen al lente. Notar que, puesto
que los recíprocos de la distancia al objeto y la
distancia a la imagen deben siempre sumar el
recíproco de la distancia focal (que es una
constante para cada lente), si do crece di debe
decrecer, y viceversa. Las dos distancias serán
Figura 4.10 iguales (do= di= d) si d = 2f. Los dos casos límite
se dan cuando bien sea do o di (uno de los dos) es
igual a f, en cuyo caso el otro es infinito (los rayos serán paralelos). Posteriormente
consideraremos que pasa si uno acerca el objeto al lente a una
distancia aún menor que f.

Hasta el momento nos hemos ceñido a puntos luminosos


axiales (es decir, ubicados sobre el eje imaginario que
intersecta perpendicularmente el lente, pasando por el centro),
o a rayos alineados con el eje óptico. Sin embargo, es de
suma importancia recalcar que las mismas consideraciones
valen también para puntos excéntricos o rayos que inciden
oblicuamente. En tal caso, si una fuente luminosa puntual se
encontrara a distancia f del lente pero apartada del eje óptico,
al otro lado emergerá un rayo colimado, pero su dirección será
oblicua. Viceversa, un manojo de rayos paralelos que
intercepte un lente oblicuamente se enfocará en un punto Figura 4.11
ubicado a la distancia focal con respecto al lente, pero cuya

90
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

posición estará alejada del centro (ver Figura 4.11). En ambos casos, el desplazamiento lateral
del foco o la dirección del rayo colimado emergente, estarán dictaminadas por el mismo ángulo
con respecto al eje óptico. Si en lugar de un punto tenemos un objeto colocado a una distancia
finita del lente, éste se puede considerar como una colección de puntos. Debido a que la luz
proveniente de cada punto-objeto se enfoca un punto-imagen, al otro lado del lente (el ‘plano
focal conjugado’) se forma una imagen de un objeto. En estas condiciones la imagen es
invertida, respecto al objeto, y se suele llamar una imagen real (si uno interpusiera una pantalla
en ese plano, uno efectivamente vería la imagen proyectada sobre la pantalla). La
magnificación de la imagen (el tamaño de la imagen, relativo al del objeto que representa) está
dada por el cociente entre la distancia lente-imagen y la distancia al lente-objeto:

M = (di – f)/f = di/do


Estas dos relaciones pueden fácilmente deducirse de un razonamiento geométrico, ilustrado en
la Figura 4.12. Consideremos un objeto, representado por la flecha roja a la izquierda.
Sabemos que de cada punto del objeto emanan rayos en todas las direcciones, sólo algunos
de los cuales serán captado por el lente. En el panel superior de la figura tomamos en cuenta
solamente el rayo axial que emana del extremo inferior del objeto; éste incide en el lente
perpendicularmente (por estar sobre el eje óptico) y por lo tanto no sufre desviaciones en su
trayectoria. Ahora, de la punta de la flecha
consideremos dos de los rayos (i) el que
es paralelo al eje óptico y que por lo tanto,
al emerger al otro lado del lente se dobla,
cruzando el eje a una distancia f (por
definición de distancia focal de un lente!).
(ii) el que pasa por el punto focal del lente
al mismo lado, y que por lo tanto debe
emerger paralelo al eje óptico (de nuevo,
debido a la definición de distancia focal).
El punto en el cual estos dos rayos se
interceptan está necesariamente en el
plano focal de la imagen (ese es el lugar
donde rayos que emanan de un mismo
Figura 4.12
punto vuelven a re-encontrarse al otro
lado del lente). Los dos triángulos rectángulos con el ángulo ‘φ’ marcado son similares (si dos
de sus ángulos son iguales, el tercero necesariamente lo será también). El cateto a lo largo del
eje óptico del triángulo de la izquierda tiene longitud f, el de la derecha tiene longitud di- f; su
tamaño relativo, por lo tanto, es (di- f)/f. Ese debe ser también el tamaño relativo de los dos
catetos verticales (por ser triángulo similares), y puesto que el de la izquierda tiene la misma
longitud que el objeto (el rayo superior es paralelo al eje óptico) quiere decir que lo mismo se
aplica a la imagen con respecto al objeto, lo cual, por definición, es la magnificación.
Alternativamente, podemos considerar el panel de abajo de la Figura 4.12, donde está indicado
un rayo que desde la punta de la flecha cruza el centro del lente (el así llamado ‘punto nodal’),
lo cual hace que su dirección no se altere. Notamos que los dos triángulos con el ángulo ‘θ’
marcado también son similares, y que la razón entre la longitud de sus catetos horizontales es
di/do. Por el mismo razonamiento, ese será también el tamaño relativo de la imagen con
respecto al objeto, es decir la magnificación. Notar que al seguir las trayectoria de los rayos
que se originan de dos puntos diferentes del objeto se entiende porque una imagen real el
invertida.

91
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Consideremos un par de aplicaciones: a partir de la relación 1/do+1/di = 1/f, es evidente que al


conocer el valor de dos de las tres variables, la tercera se despeja fácilmente. Por ejemplo, si
do y di se conocieran, entonces para encontrar f primero encontraríamos el mínimo común
denominador del lado izquierdo:
(do+di)/ do×di = 1/f ⇒ f = do×di / (do+di)
Por ejemplo, si do = 50 mm y di = 150 mm, entonces f = 7500/200 = 37.5 mm. Un lente con esta
distancia focal enfocaría perfectamente a las distancias prescritas. La imagen resultará
magnificada por un factor M = di/do = 150/50 = 3

De una manera similar, si en cambio nos dijeran que do = 20 mm y f = 4 mm, entonces para
encontrar di:
di = do×f / (do- f)
⇒ di = 20×4/(20-4) = 80/16 = 5 mm. M = di/do = 5/20 = 0.25

Estrictamente hablando, estos cálculos sencillos se basan en la suposición de que el lente en


cuestión es delgado. Si en cambio su grosor fuera considerable las reglas se tornan más
complejas, y habría que tomar en cuenta elementos adicionales (e.g. los ´planos principales`
del lente), pero para nuestros propósitos el acercamiento simplificado brinda un nivel de
comprensión suficiente.
Como empalma el principio de tiempo mínimo de Fermat con el hecho de que con un lente se
puede enfocar un punto luminoso en un punto-imagen? Evidentemente, en este caso para ir de
un punto al otro, los rayos de luz toman muchos caminos, no uno solo (de lo contrario no habría
muchos rayos que nacen del mismo punto y vuelven a converger a un mismo punto). Por lo
tanto debe ser que los distintos recorridos requieren exactamente el mismo tiempo, lo cual los
hace todos igualmente viables: el rayo que viaja
desde el objeto puntual pasando por el centro de un
lente convexo tiene menos recorrido en el aire, pero
luego debe cruzar la porción más espesa del lente,
por el cual se propaga más lentamente. Los rayos
que emanan del mismo punto pero se dirigen a la
periferia del lente tienen en cambio un recorrido
mayor por el aire, pero este se compensa luego por
tener que atravesar sólo la parte más delgada del
lente. El longitud del camino óptico (‘optical path
Figura 4.13 length’ que es el tiempo de recorrido) es el mismo. La
situación se ilustra en la Figura 4.13. La conclusión
que se desprende es que, hablando de una manera informal, si no hay un camino más rápido
que escoger entre los dos puntos, la luz ‘los toma todos!` Si calculáramos los tiempos totales
para los distintos caminos, tomando en cuenta las varias distancias y la velocidad de
propagación en el aire y en el vidrio, llegaríamos exactamente a la misma conclusión que se
desprende de la ley de refracción: al diseñar un lente que iguale el tiempo de viaje para todos
los distintos rayos, éste resulta teniendo la misma forma que se deriva de la aplicación de la ley
de Snell.
Ahora pongamos estas conclusiones en un contexto que no atribuya a la luz propiedades
antropomórficas, como la capacidad para sopesar diferentes caminos y elegir. Al considerar el
principio de Fermat del tiempo mínimo a la luz de la óptica de ondas, se puede formular una
explicación completamente racional (aunque aquí se presentará de una forma
considerablemente simplificada). Para ello recordemos que cuando una función y=f(x) en

92
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

alguna región alcanza un punto estacionario (un mínimo o un máximo), necesariamente la


derivada df/dx se anula en ese punto: su pendiente local es cero. Eso también quiere decir que
si nos alejamos poco de ese punto x, el valor de la función no cambiará mucho. En cambio en
alguna otra región del dominio x en la cual la pendiente sea empinada (bien sea positiva o
negativa), la función sufrirá grandes cambios al modificar x. Ahora consideremos una función
que mide el camino óptico de diferentes recorridos posibles para la luz entre dos puntos, A y B;
es decir, la función reporta el tiempo de propagación empleado para los diferentes trayectos. Si
existe un camino que minimiza el tiempo (i.e. la derivada de la función al modificar el recorrido
es cero), los recorridos aledaños tendrán un camino óptico muy similar. Por lo tanto, los rayos
vecinos que emanan del mismo punto A llegarán a B casi perfectamente en fase e interferirán
constructivamente, sumándose. En cambio para otras trayectorias, los rayos vecinos diferirán
mucho en camino óptico y tenderán por lo tanto a interferir destructivamente, anulándose. Esto
destila lo que subyace a la noción de porqué se impone el recorrido que emplea menos tiempo.
Ahora, en una situación en la cual todos los caminos rectilíneos toman el mismo tiempo – como
en el caso de un lente (o de un espejo parabólico), la interferencia es constructiva para todos
los rayos, y no se descarta ninguno.

Imágenes virtuales
Al colocar un objeto puntual más cerca al lente que la distancia focal de éste, los rayos
inevitablemente divergen al cruzar el lente. Al otro lado, sus trayectorias son como si
provinieran de un objeto aparentemente ubicado en otra posición. Se denomina este objeto
aparente la ‘imagen virtual’ del objeto. La Figura 4.14A muestra esta situación, con un objeto
puntual (punto oscuro) colocado a do<f,
las trayectorias extrapoladas de los
rayos (líneas punteadas), y la imagen
virtual (punto claro). La distancia a la
cual se forma la imagen virtual
depende de la ubicación del objeto y
de las propiedades del lente. En esta
situación, por lo tanto, no se proyecta
ninguna imagen del objeto otro lado
del lente (contrariamente a una
“imagen real”). En la parte B se
muestra el caso de un objeto extenso
(flecha roja sólida), ilustrando lo que
percibiría un observador (flecha
punteada), lo cual se obtiene
extrapolando los rayos que provienen
de la punta y de la cola de la flecha,
respectivamente. La imagen virtual no
es invertida, sino erecta. Una instancia
muy familiar de este arreglo es el uso
de una lupa para agrandar un objeto.
Análogamente al caso de imágenes Figura 4.14
reales, el tamaño relativo
objeto:imagen, es decir, la magnificación, depende del cociente di/do.

93
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

En todos los casos considerados hasta el momento, los


lentes eran convergentes, consecuencia del hecho de
tener superficies convexas (o plano-convexa).
Contrariamente a lentes convexos, los cuales pueden
formar bien sea imagenes reales o virtuales,
dependiendo de la distancia con respecto al objeto,
lentes cóncavos siempre hacen divergir la luz,
independientemente de la distancia al objeto, y por lo
tanto sólo son capaces de formar imágenes virtuales.
Como tal, se caracterizan por una distancia focal
Figura 4.15 negativa: si un
haz de luz
colimada incidiera sobre un lente divergente, el ‘punto
focal’ sería la distancia a la cual se forma la imagen
virtual, al mismo lado de la luz incidente (Figura 4.15).
Si el lente no es convergente, di inevitablemente será
<do y por lo tanto la magnificación, M, será <1 (es decir,
la imagen es más pequeña que el objeto) Un ejemplo
familiar de este caso es la impresión que puede dar
una piscina de ser más panda que su verdadera
profundidad: los rayos que emanan del fondo de la
piscina divergen ulteriormente al cruzar la interfase
plana agua-aire, y un observador ubicado al borde de la
piscina vería el fondo como si estuviera más cerca de
la superficie de lo que realmente es. La Figura 4.16
ilustra el fenómeno esquemáticamente: debido a la
refracción agua-aire, la imagen percibida de un azulejo
en el fondo aparenta estar ubicada a poca profundidad Figura 4.16

Dioptrías
Como ya se discutió, para un lente convexo (convergente) a mayor curvatura de la(s)
superficie(s), mayor la desviación de los rayos y por lo tanto menor la distancia focal. En óptica
fisiológica se suele utilizar, en lugar de la distancia focal, otra medida para indicar el poder
refractivo de un lente: este es el recíproco de la distancia focal medida en metros, y su unidad
es la dioptría. Por lo tanto, un lente que tuviera distancia focal f = 50 cm (= 0.5 m) tendría un
poder de 1/0.5 = 2 dioptrías. Las dioptrías son las unidades comúnmente utilizadas en
optometría. Si el lente fuera divergente, el valor sería negativo.

Sistemas ópticos complejos

94
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Rara vez un aparato óptico está constituido de un solo lente. A veces se trata de varios lentes o
hasta decenas de lentes. Como manejar esa situación? Simplemente considerándolos uno por
uno. Miremos la Figura 4.17; si un objeto estuviera colocado a una distancia do del primer lente
del sistema, calcularíamos
donde se formaría la imagen
(obviamente, basándonos en la
distancia focal del primer lente).
Luego consideraríamos el
segundo lente, y donde
formaría la imagen de la imagen
(es decir, tomando la primera
imagen como si fuera el objeto);
y así sucesivamente. A través
de múltiples aplicaciones de la
misma fórmula, llegaríamos a
Figura 4.17
determinar donde se formaría la
imagen final y cual sería su
magnificación (esta última viene siendo el producto de las magnificaciones individuales). Este
mismo razonamiento se aplica cuando en un sistema óptico una imagen se forma a una
distancia del lente siguiente que es menor que su distancia focal. En este caso la imagen
siguiente será virtual. Como se examinara más tarde, esta situación ocurre en un instrumento
muy familiar, el microscopio de luz.

Profundidad de campo
Dos lentes pueden tener la misma curvatura, pero diferente diámetro. Por supuesto, la distancia
focal será la misma, pero los dos lentes diferirán en un aspecto importante: para un objeto
puntual ubicado a una distancia do, el cono de rayos que emanan del objeto y que serán
captados por el lente es necesariamente más estrecho si el diámetro es menor. La apertura
numérica (N.A.) de un lente que enfoca un objeto se define como N.A. = N⋅sinθ, N siendo el
índice de refracción del medio entre el objeto y el lente, y θ es ½ del ángulo de aceptación de
los rayos de luz que se originan de un punto. Para una distancia dada del objeto, N.A. depende
evidentemente del diámetro del lente. Una mayor apertura numérica confiere al lente mayor
luminosidad, ya que implica una fracción más grande de luz captada. La apertura numérica
también repercute en lo que sucede con la imagen de objetos que se encuentren más cerca o
más lejos del plano que se está enfocando. La Figura 4.18 ilustra este concepto: dos objetos
puntuales, o1 y o2 se encuentran a diferentes distancias de un lente (mayor que la longitud focal
del lente para que ambas imágenes sean reales);
sus respectivas imágenes, por lo tanto, también se
formarán a diferentes distancias al otro lado del
lente (i1 y i2). Supongamos que el plano imagen de
interés (donde ‘interceptamos’ la imagen, poniendo
un pantalla, o el sensor de una cámara) fuera i2
donde se enfoca el objeto o2. Nos preguntamos
como se verá en ese plano la imagen del objeto
que no está en foco (i.e. o1). En la parte superior
de la figura se examina el caso de un lente de gran
apertura numérica, en la inferior el de un lente de
la misma distancia focal pero menor apertura
numérica (menor diámetro). En ambos casos los
rayos que emanan de o2 (líneas rojas) convergen a Figura 4.18

95
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

un punto, mientras que los de o1 (líneas azules) han convergido prematuramente (por estar el
objeto más lejos del lente, recuerden la relación 1/f = 1/do + 1/di) y por consiguiente en el plano
de i2 los rayos están de nuevo divergiendo. Pero hay una diferencia: si el cono de los rayos
‘desenfocados’ es estrecho (i.e. los captados por el lente de pequeña apertura numérica)
entonces su área de sección en el plano imagen será pequeña (disco azul del panel inferior), y
por lo tanto no se verá muy borroso. En cambio, cuando la apertura numérica es grande el
cono converge y diverge más abruptamente, y por consiguiente al interceptarse la imagen no
en su punto focal se generará un disco más grande (disco azul del panel superior), es decir,
una imagen más difusa y desenfocada. La conclusión es que alterando la apertura numérica
(como por ejemplo, manipulando el diafragma del objetivo de una cámara fotográfica) se puede
variar la profundidad de campo, que es el grado en el cual objetos más cercanos o más lejanos
del plano que se está enfocando todavía retengan una buena nitidez. Esto lo saben muy bien
los fotógrafos, y cuando desean resaltar un sujeto con respecto al fondo abren mucho el
diafragma del objetivo, haciendo que sólo el sujeto esté bien enfocado y lo demás se torne
difuso; viceversa, cuando se quiere tener razonablemente bien enfocados varios objetos que se
encuentren a diferentes distancias, se cierra el objetivo lo más posible.

Aberración esférica
La curvatura de un lente que esté diseñado para enfocar exactamente todos los rayos de un
haz colimado en un solo punto está descrita por una función de cuarto orden. A menudo, la
fabricación de lentes, al igual que en el caso de espejos, utiliza una aproximación esférica, la
cual provee un desempeño excelente para rayos paraxiales, pero los rayos periféricos no son
enfocados en el mismo plano, y por lo tanto contribuyen, en el plano focal, una luz difusa que
degrada la calidad de la imagen. Este fenómeno se denomina aberración esférica y ocurre
frecuentemente en elementos ópticos de sistemas
biológicos, donde la forma del lente es a menudo
esférica, por estar determinada por la isotropía del
campo de fuerzas que lo moldean durante el
desarrollo (por ejemplo, lo mismo ocurre con la
tensión superficial de una gota, o con la agregación
de material rodeado por un medio líquido). La
Figura 4.19A muestra lo que sucede con un lente
cuya curvatura en ambas caras se asemeja a una
porción de la superficie de una esfera. Los rayos
centrales (flechas negras) se enfocan todos en el
mismo punto, pero a medida que los rayos se alejan
del eje óptico (flechas grises oscuras y claras)
encuentran un ángulo de incidencia más y más
pronunciado que lo necesario, y son desviados
hacia puntos progresivamente más cercanos. Una
posible estrategia para corregir la aberración
esférica consiste en limitar la luz utilizada a los
rayos paraxiales, mediante una apertura o un
diafragma (por supuesto, a costa de la luminosidad
de la imagen), el cual debe colocarse cerca del
plano del lente (no el plano-imagen), para rechazar Figura 4.19
los rayos periféricos (panel B).

Aberración cromática

96
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Otro problema que altera la calidad de la imagen deriva del hecho que el índice de refracción
normalmente manifiesta una cierta dependencia con respecto a la longitud de onda, un
fenómeno denominado dispersión. Es por este fenómeno que una luz blanca (como la del sol)
que pasa por un prisma de cristal se descompone en un arco iris (el bien conocido ‘prisma de
Newton’): distintas longitudes de onda son refractadas por un ángulo diferente, y por lo tanto se
separan una de otra. Para el caso de un lente,
esto implica que rayos de una cierta longitud de
onda se enfocan en un plano, pero para otra
longitud de onda el plano imagen se ubicaría a
una distancia ligeramente diferente. En particular,
para una fuente puntual de luz blanca, los distintos
componentes espectrales (por ejemplo, rojo,
verde, azul, etc.) llegarían a concentrarse en un
punto a distintas distancias del lente. Por
consiguiente, uno observaría, en el plano focal
apropiado para una longitud de onda particular, un
punto de ese color rodeado de un halo más difuso
Figura 4.20
de otros colores (ver Figura 4.20). El fenómeno se
denomina aberración cromática, y existen diferentes estrategias para evitarla. Por una parte, en
aplicaciones en las cuales el color puede no ser importante (por ejemplo, fotografía en blanco y
negro, y ciertas aplicaciones de microscopía), una forma sencilla de eliminar de raíz el
problema es utilizando luz monocromática (i.e. de una sola longitud de onda); esto se logra
interponiendo un filtro que sólo transmita una estrecha
banda de longitudes de onda y absorba o refleje las
demás; la Figura 4.21A ilustra este caso. Por otra parte,
hay también manera de corregir en buena medida el
fenómeno fabricando lentes constituidos por varias
capas de vidrios de distintas propiedades, los cuales se
compensan mutuamente (‘lentes acromáticos’).
Brevemente, se trata de lo siguiente: generalmente el
índice de refracción es mayor para longitudes de onda
más cortas, con lo cual un lente convergente las
enfocaría en un punto más cercano que las ondas de
longitud más larga. Se agrega entonces un segundo
lente, el cual es divergente pero de modesto poder
dióptrico y mayor dispersión que el primero. El
resultado es alejar un poco el punto focal, pero este
efecto será especialmente pronunciado para las
longitudes de onda corta (debido a la mayor
dispersión), con lo cual éstas terminan enfocándose en
el mismo punto focal que las otras. Conjuntamente, el
‘sandwich’ de lentes logra corregir la aberración Figura 4.21
cromática, como se muestra en la Figura 4.21B.

Falencias de la Óptica Geométrica: el límite de difracción.


Hasta el momento se ha planteado, de acuerdo con la óptica geométrica, que un lente es
posible enfocar la luz en un punto infinitamente pequeño; sin embargo, resulta en cambio que
aún con un lente de forma ideal y perfecta corrección cromática, la imagen de un punto
proyectada en el correspondiente plano focal (o, equivalentemente, lo que se observa en el
plano de la distancia focal de un lente sobre el cual incide un rayo colimado), no es un punto

97
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

perfecto, sino una ‘mancha’ diminuta pero algo difusa, rodeada por una serie de anillos
luminosos progresivamente más tenues, que se denomina el disco de Airy.
Para explicar el origen y la naturaleza de este fenómeno no es posible basarse en óptica
geométrica, en la cual conceptualizamos la luz como rayos que viajan en forma rectilínea, sino
se requiere analizar la luz como ondas electromagnéticas tri-dimensionales que se propagan y
que pueden interferir unas con otras en forma constructiva (cuando dos frentes de onda al
encontrarse están en fase y se suman) o destructivamente (cuando están fuera de fase y se
anulan mutuamente). Una discusión detallada del tema excede las metas de esta revisión, pero
podemos esbozar un argumento intuitivo de la siguiente manera. Consideremos un lente ideal
que está enfocando un objeto en su imagen, lo cual implica que forma unos frentes de onda
esféricos cuyo centro es el punto-imagen (recordar que si los tiempos de viaje son iguales, por
el principio de Fermat, entonces en el punto-imagen así como en cualquier conjunto de puntos
equi-distantes de él, el campo electromagnético estará oscilando en sincronía). Acudamos al
principio de Huygens, según el cual
cada punto en un frente de onda se
puede considerar el origen de una
nueva onda que se propaga en todas las
direcciones; tomemos las ondas
originadas en dos puntos distintos sobre
el mismo frente y consideremos la
dirección de propagación bien sea hacia
el foco (Figura 4.22A) o hacia un punto
lateral al foco, pero en el mismo plano
(B). Para llegar al foco, la distancia
recorrida por las dos ondas es la misma,
por lo tanto llegan en fase e interfieren
constructivamente, sumándose. En
cambio, para llegar al otro punto las
distancias son diferentes, lo cual implica
Figura 4.22
un desfase, que crece al aumentar la
distancia lateral con respecto al eje óptico. En regiones
aledañas habría parcial cancelación de las ondas que llegan,
y por consiguiente menor intensidad de la luz, pero donde la
diferencia de distancia implique un desfase de 180°, la
interferencia destructiva sería total: las dos ondas se
aniquilarían, i.e. no habría luz en ese punto. En el plano del
foco, entonces, habrá una región brillante que desvanece
gradualmente a los lados, hasta la oscuridad; más aún, en
regiones aún más lejanas, donde la diferencia de fase se
aproxime a 360°, de nuevo vuelve a ocurrir una interacción
constructiva; esto implica que se formarán anillos concéntricos
alrededor de la región luminosa central. El disco de Airy tiene
por lo tanto un perfil de intensidad de iluminación con forma
de campana, rodeado de anillos ulteriores de luz cada vez
más tenues. El panel superior de la Figura 4.23 ilustra su
apariencia, mientras que en el panel inferior de la misma
figura se muestra el perfil de intensidad a lo largo de una línea
que pase por el centro del disco de Airy. [Nota: se desarrolló
este razonamiento de una manera simplificada, considerando
solamente dos puntos sobre un frente de onda y asumiendo Figura 4.23

98
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

que la luz es coherente (i.e. con la misma fase); sin embargo, el resultado es válido en un
contexto general – aunque eso resulta
notablemente más complicado para
demostrar].

Estas dimensiones finitas de la imagen de un


punto imponen un límite máximo (el así
llamado ‘límite de difracción’) a la resolución
óptica de una imagen: dos puntos sólo
podrán resolverse si sus respectivas
imágenes son separadas, es decir, si sus
respectivos discos de Airy no están
sobrelapados. El diámetro del disco de Airy
(r) es proporcional a la longitud de onda (λ) e
inversamente proporcional al diámetro del
lente o, más específicamente, a la apertura
numérica del lente: r ≈ λ/N.A.. La
dependencia con respecto a la longitud de
onda se puede fácilmente entender haciendo
referencia a la Figura 4.24A, en la cual se
considera un punto ubicado en el plano focal,
pero colocado excéntricamente con respecto
al eje óptico. Si se examinan dos rayos que
Figura 4.24 llegan a ese punto, provenientes de puntos
distintos de un mismo frente de onda (líneas rojas), habrá una diferencia en la longitud de sus
recorridos, según se explicó previamente. Si la longitud de onda de la luz es larga (izquierda),
se necesita que la excentricidad (flecha morada) sea grande para que esa diferencia de
recorrido represente media longitud de onda, de tal manera que los rayos, al llegar desfasados
de 180 grados, interfieran destructivamente resultando en su anulación. En cambio, si la
longitud de onda fuera progresivamente más corta (centro y derecha), una excentricidad más
modesta sería suficiente para que las ondas lleguen desfasadas de 180 grados, y se cancelen.
Se desprende que el disco de Airy tendrá mayor
tamaño proporcionalmente a la longitud de onda de la
luz, como efectivamente muestra la Figura 4.24B.
Ahora consideremos el rol del diámetro del lente (más
exactamente, su apertura numérica), y comparemos
un lente grande con uno pequeño (Figura 4.25):
examinando el recorrido de dos ondas que llegan a un
mismo punto excéntrico en el plano focal, naciendo de
los extremos del lente (es decir los ‘rayos’ que más
pueden diferir en recorrido), es evidente que la
discrepancia en el largo del camino es mayor entre
más grande el diámetro de lente (comparar Δ y Δ’). Por
consiguiente, cuando el lente es grande, al
desplazarnos muy poco del sitio donde debería
formarse la imagen del objeto puntual ya habrá
interferencia destructiva; el tamaño del disco de Airy
será entonces muy reducido. Con un lente pequeño
sucede lo contrario: aún con un desplazamiento lateral
considerable la interferencia destructiva será sólo Figura 4.25

99
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

parcial y seguirá habiendo luz, es decir, el disco de Airy será más grande. En resumen, la
capacidad de resolución de un lente depende inversamente de λ y directamente de la A.N.:
manteniendo constante los demás factores, entre mayor la apertura numérica, mayor la
capacidad de resolver detalles finos, ya que los discos de Airy correspondientes a dos objetos
puntuales cercanos uno al otro serán más pequeños, y por lo tanto tenderán a no
superponerse. También, debido a la misma relación, es posible mejorar la resolución utilizando
longitudes de onda más cortas (e.g. luz azul: de allí la carrera para producir láseres de diodo
con emisión azul para usar en lectores de CDs y DVDs – la así llamada tecnología Blue Ray -
ya que, siendo capaces de enfocar la luz en un punto más pequeño, permiten ‘empacar’ más
información por unidad de área del disco, respecto a un láser convencional rojo).

Reflexión total interna y sus aplicaciones


Hasta ahora se ha enfatizado la refracción en situaciones en las cuales la luz viaja de un medio
de menor a mayor índice de refracción, como es el caso de un lente. Sin embargo hay casos
importantes en los cuales sucede lo contrario. Consideremos la ley
de Snell, Sin(θi)/ Sin(θr) = N21, aplicada a una instancia en la cual la
luz viaja de un medio de menor velocidad de propagación (mayor
índice de refracción, llamémoslo Medio 1) a otro de mayor
velocidad de propagación (menor índice de refracción, Medio 2),
como por ejemplo de vidrio a aire. En este caso sabemos que, a
medida que aumente el ángulo de incidencia del rayo sobre la
interfase, mayor será la desviación del rayo refractado, respecto a
la trayectoria rectilínea, y esta desviación ocurrirá en la dirección
que lo aleja de la normal (es decir, el rayo refractado tiende a
‘acostarse’ hacia la superficie de la interfase vidrio-aire). El panel A
de la Figura 4.26 ilustra este caso. Esto implica que, aumentando el
ángulo de incidencia, se podría llegar a un valor tal que el rayo
refractado quede paralelo a la interfase: θr = π/2 (90°) y por lo tanto
sin(θr) = 1 (Figura 4.26B). La ley de Snell en este caso se reduce a
Sin(θi) = N21 y por lo tanto el ángulo de incidencia al cual este
fenómeno ocurrirá será θi = arcsin(N21), y se conoce como el ángulo
crítico. A ángulos de incidencia aún mayores, la luz rebota de la
interfase; el fenómeno se denomina reflexión total interna (Panel
C). Hagamos un ejemplo concreto, considerando un haz de luz que
se propaga por un medio constituido por vidrio de boro-silicato,
cuyo índice de refracción es ≈1.52, y supongamos que el rayo
Figura 4.26 encuentra la interfase vidrio-aire. Utilizando la relación presentada
arriba, podemos estimar que si el ángulo de incidencia excediera
42º la luz se reflejaría, sin penetrar y propagarse por el nuevo medio.

Fibras ópticas. La luz, como se dijo al comienzo de estas notas, viaja en línea recta
(contrariamente a la electricidad, que sigue la trayectoria del conductor). En algunas
situaciones esto llega a complicar la aplicación de iluminación, o la colección de luz en sitios de
difícil acceso. Existe una manera de obviar esta dificultad, haciendo que un haz de luz se
propague a lo largo de una fibra que puede dar curvas, de la misma manera como una
corriente eléctrica fluye por un cable cuyo recorrido puede ser tortuoso. La reflexión interna total
se ha utilizado para guiar la transmisión de luz por caminos no rectilíneos, haciendo uso de un
conducto sólido de material transparente (vidrio, plástico etc.) rodeado de aire u otro medio de
menor índice de refracción que el conducto mismo. El artefacto se llama fibra óptica y asegura

100
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

que, mientras el rayo viaje internamente incidiendo sobre las paredes de la fibra formando un
ángulo mayor que el ángulo crítico (respecto a la normal de la pared), procederá hacia adelante
rebotando múltiples veces sin escapes laterales. La Figura 4.27A muestra esquemáticamente
la situación. Notar que si se doblara la fibra de una
manera pronunciada, rayos de luz podrían
encontrar un ángulo de incidencia con la pared de
la fibra por debajo del límite crítico, en cuyo caso el
rayo saldría de la fibra (panel B de la misma figura).
Usualmente, las fibras ópticas se pueden fabricar
en diámetros desde 0.02 hasta ≈2 mm, y se suelen
juntar en un ‘manojo’ que puede contener muchos
cientos o miles de fibras, con un diámetro total de
unos 2-8 mm; por supuesto, es imprescindible que
las fibras estén separadas una de otra por un
material de bajo índice de refracción, para que la
luz quede confinada dentro de cada fibra
separadamente. La versión más sofisticada de fibra
óptica contempla un conducto transparente en el Figura 4.27
cual el índice de refracción es máximo en el centro
y disminuye radialmente hacia la periferia; de esta manera los rayos de luz curvan
gradualmente y son guiados a lo largo de la fibra, usualmente sin llegar a rebotar de la
superficie del cilindro (’fibras indexadas’). Las aplicaciones más comunes conciernen
iluminadores de varios tipos, que permiten traer un haz de luz a sitios poco accesibles (por
ejemplo, un campo de cirugía, un microscopio), ya que (i) el conducto de fibras ópticas suele
ser flexible, (ii) su cabeza terminal es mucho más pequeña que un iluminador (constituido por
una lámpara, colector, etc.), y (iii) el conducto de fibras ópticas no transmite sino una mínima
fracción del calor que genera la lámpara.

Aplicaciones a endoscopia. En un conducto de fibras ópticas, normalmente no se preserva


ningún orden espacial, i.e. distintas fibras se cruzan de un lado al otro a lo largo del camino. La
luz queda completamente ‘revuelta’, lo cual, para propósitos de iluminación, puede tener ciertas
ventajas, como asegurar uniformidad espacial
del la intensidad de luz, ya que toda
heterogeneidad local viene mezclada al azar.
Pero es posible también fabricar un conducto
en el cual la disposición espacial de las fibras
individuales se preserve punto-a-punto a lo
largo del conducto. La Figura 4.28 muestra
este arreglo, que se denomina un conducto
de fibras ópticas ‘coherentes’: fibras selectas
individuales han sido marcadas (‘A’, ‘B’ y ‘C’),
Figura 4.28 para recalcar como sus respectivas
posiciones se mantienen. Unas fibras ópticas coherentes permiten que, si se proyecta o enfoca
una imagen sobre un extremo del conducto, la imagen se mantiene y se transmite hasta el otro
extremo. Debido al pequeño tamaño del conducto y su flexibilidad, es posible utilizarlo, en
conjunción con algún elemento óptico (un objetivo) montado en uno de los dos extremos, para
insertarlo dentro del organismo (e.g. esófago, estómago, intestino, etc.) y obtener de una
manera mínimamente invasiva una imagen.

Fibras ópticas y transmisión de información. Una de las aplicaciones de mayor importancia para
las fibras ópticas es la comunicación: una creciente fracción de toda comunicación a distancia

101
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

(e.g. telefonía, televisión, internet) se implementa no a través de cables eléctricos, sino ópticos.
Aunque las señales en cuestión son originalmente eléctricas (usualmente trenes de impulsos),
resulta conveniente convertirlas a destellos ópticos que viajan por fibras ópticas, para luego ser
re-convertidas a modalidad eléctrica. La principal ventaja es que, contrariamente a un impulso
eléctrico, en el caso de la luz no existe el problema de la capacitancia (inevitable en un cable
eléctrico) que atenúa y enlentece la señal actuando como un filtro pasa-bajos. En
comunicaciones eléctricas es necesario espaciar significativamente los impulsos para evitar
que, al llegar a su destino distorsionados y prolongados, se sobrelapen; pero esta precaución
reduce el ancho de banda y por ende la capacidad de transmisión de información. En cambio
las frecuencias de pulsos ópticos puede ser notablemente mayor, permitiendo la transmisión de
volúmenes masivos de información por cada fibra individual (por ejemplo, múltiples canales de
TV).

102
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

5. Fluorescencia
Fenómeno básico. Existe un ulterior fenómeno óptico de gran relevancia a las ciencias
biomédicas, que consiste en que cierta clase de moléculas, cuando se les irradia con luz,
emiten luz a su vez. La absorción de un fotón implica que su energía (E = h⋅ν) debe haber sido
transferida a la molécula en cuestión y puede llevar un electrón a saltar a un orbital más alto.
Este incremento en el nivel energético dura poco (por lo general billonésimas de segundo), y
tiende a disiparse en movimientos moleculares como vibraciones y rotaciones, lo cual
simplemente se traduce en calor. Pero moléculas cuya estructura es muy rígida (por ejemplo,
cuando contienen anillos aromáticos) no se prestan para ‘descargar’ con movimientos toda esa
energía absorbida, debido a su limitada flexibilidad. Entonces, sólo una pequeña fracción de la
absorción inicial se disipa en calor, el resto en un brinco abrupto de vuelta a un estado
energético más bajo, cuando el electrón retorna a su orbital original. Esta diferencia de energía
no puede simplemente desvanecer (de lo contrario se violaría la primera ley de la
termodinámica, el principio de conservación de energía), sino se debe manifestar en algo. Este
‘algo’ es la emisión de radiación electromagnética (i.e. otro fotón). Puesto que, antes de
lograrlo, la molécula en cuestión
inevitablemente ya habrá perdido alguna
fracción de la energía adquirida, el camino no
es totalmente reversible y por lo tanto la
energía del fotón emitido es menor que la del
fotón absorbido. Es decir, por la relación de
Einstein, la longitud de onda de la luz emitida
es necesariamente mayor que la de la luz
absorbida (también llamada ‘de excitación’);
esta discrepancia entre la longitud de onda
de la luz de excitación y la de emisión se
llama el desplazamiento de Stokes. La Figura
5.1 muestra esquemáticamente este proceso: Figura 5.1
So, S1,...etc. indican las diferentes
configuraciones electrónicas, mientras que las líneas más delgadas representan los estados
vibracionales y rotacionales asociados con ellas. Transiciones entre esos ‘peldaños’ pequeños
implican cambios en movimientos moleculares – i.e. térmicos. Moléculas capaces de emitir luz
luego de ser irradiadas se conocen como ‘fluoróforos’ (por ejemplo, la fluoresceína, o la
rodamina).
Espectros de excitación y de absorción. El fenómeno de la fluorescencia es sumamente
versátil, y ha generado una enorme variedad de aplicaciones en ciencias bio-médicas. En
primer lugar, la absorción y la emisión de luz de cada fluoróforo tienen características
específicas en cuanto a longitud de onda. Notar que no se trata de una única longitud de onda
para la excitación, ni tampoco para la emisión: esto se
debe a que hay un abanico de niveles energéticos a los
cuales puede llegar la molécula al excitarse (i.e.
diversas longitudes de onda del fotón absorbido), así
como de niveles que separan la transición de de-
excitación que se acompaña por la emisión de un fotón.
Esto se puede determinar utilizando diferentes filtros
que dejen pasar sólo una longitud de onda particular, e
interponiéndolos en el camino del rayo de excitación, y
en el camino de la emisión. Por ejemplo, se puede
mantener un filtro fijo al frente del detector, y medir la
intensidad de la emisión mientras se varía la longitud Figura 5.2

103
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

de onda de excitación; la representación gráfica de esta relación define el espectro de


excitación de la molécula en cuestión. Alternativamente, se puede excitar el fluoróforo con una
longitud de onda fija y variar en cambio la longitud de onda del filtro de emisión (también
llamado filtro de barrera). La determinación de cómo distintas longitudes de onda contribuyen a
la fluorescencia emitida se llama el espectro de emisión. La Figura 5.2 ilustra los espectros de
absorción (línea punteada) y de emisión (línea contínua) de un compuesto fluorescente. La
eficiencia con la cual una molécula fluoresce depende de dos parámetros críticos: el primero es
su capacidad de absorber la luz de excitación, es decir, su coeficiente de extinción molar; el
segundo se conoce como la eficiencia cuántica, y representa la probabilidad de que un fotón
absorbido produzca la emisión de otro fotón (en lugar de disiparse la energía térmicamente).
Aplicación de la fluorescencia al marcaje de moléculas. Puesto que estas curvas suelen tener
una forma y un pico máximo característicos para diferentes moléculas, al examinarlas se deriva
información sobre la presencia de dichas sustancias en una muestra. Ciertos fluoróforos
tienden a combinarse específicamente con otra molécula, la cual
puede ser de interés biológico, permitiendo así detectarla; este es
el caso del bromuro de etidio, que se intercala con el ADN, de tal
manera que cuando la muestra es irradiada con luz ultravioleta el
bromuro de etidio emite luz anaranjada y se puede facilmente
visualizar. La Figura 5.3 muestra un ejemplo de ADN separado
electroforéticamente en un gel de agarosa (banda brillante a la
derecha); en el carril de la izquierda se encuentran marcadores
de diferentes tamaños como referencia. En otras aplicaciones se
puede conjugar un fluoróforo a un anticuerpo que reconozca
alguna proteína particular, lo cual permite establecer su
Figura 5.3
localización en un tejido.
Uso de fluorescencia para monitorear funciones celulares. Otra aplicación muy importante de la
fluorescencia concierne la medición de cambios en la concentración de sustancias de interés
biológico. Un reto particularmente complejo concierne mediciones en el interior de la célula, por
ser un compartimiento de difícil acceso y diminutas dimensiones, el cual por lo tanto suele estar
fuera del alcance de métodos bioquímicos convencionales. La fluorescencia, en cambio, hace
posible realizar mediciones mínimamente invasivas en células vivas y en tiempo real. Este
acercamiento requiere el uso de alguna molécula reportera fluorescente la cual cumpla con las
siguientes condiciones: (i) sea capaz de establecer un enlace reversible con la sustancia de
interés (ii) exista alguna diferencia en sus propiedades de fluorescencia entre el estado libre vs.
cuando se liga al sustrato. Las alteraciones inducidas por la interacción entre el reportero (o
indicador) y el sustrato pueden implicar (a) cambios en la intensidad de la emisión fluorescente
(b) cambios en la absorción de la luz de excitación (c) un desplazamiento del espectro de
excitación (d) un desplazamiento del espectro de emisión. Por supuesto, la lógica que subyace
a este tipo de medición es que la concentración del sustrato determina la cantidad de
complejos (sustrato-indicador) que se forman. Consideremos el caso más simple, una reacción
bi-molecular en la cual una molécula de indicador (I) se une reversiblemente a una molécula de
sustrato (S):
α
I+S ↔ IS
β
Este esquema cinético es muy conocido y lo resumiremos brevemente (aunque el tema debería
resultar familiar a todos). La rata de cambio en la concentración del complejo, [IS], se
representa como:
d[IS]/dt = α[I][S] - β[IS]

104
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Si la reacción es rápida en comparación con la velocidad de los cambios en la concentración


del sustrato, se puede considerar que en todo momento estará prácticamente en equilibrio, en
cuyo caso d[IS]/dt = 0, y por lo tanto:
α[I][S] - β[IS] = 0 (*)
Considerando que en el sistema se ha introducido una cantidad total fija de indicador,
llamémosla IT, entonces podemos reducir el número de variables libres tomando en cuenta que:
[I] = [IT] -[IS]
Esto simplemente denota que la cantidad de moléculas de indicador libre es igual a la cantidad
total menos las que se han unido al sustrato. Entonces, re-escribimos la expresión (*) como:
α([IT] -[IS] )[S] - β[IS] = 0
Ahora como variables sólo tenemos la concentración de sustrato libre, [S], y la del complejo
[IS]. Queremos despejar [IS] en función de [S]:
α[IT][S] -α[IS][S] - β[IS] = 0
α[IT][S] = α[IS][S] + β[IS]
α[IT][S] = [IS](α[S] + β)
[IS] = α[IT][S] /(α[S] + β)
Dividiendo tanto el numerador como el denominador por α y representando β/α como KD (la
constante de equilibrio de disociación), finalmente obtenemos:
[IS] = [IT][S] /([S] + KD)
Esta es la muy familiar hipérbola rectangular conocida como ‘Michaelis-Menten’ o ‘Iso-terma de
Langmuir’: si se grafica la concentración del complejo en función de la concentración del
sustrato libre, como se ilustra en la Figura 5.4, se obtiene una curva negativamente acelerada
que empieza en 0 y tiende asintóticamente hacia IT a medida que [S] incrementa; esta
deducción se desprende más fácilmente dividiendo tanto el numerador como el denominador
del lado derecho de la ecuación por [S], con lo cual queda:
[IS] = [IT] /(1 + KD/[S])
Cuando [S] coincide con el valor KD, entonces [IS] = [IT]/2.
Consideremos primero el caso más simple, el comportamiento de un indicador que no fluoresce
del todo cuando está libre, y sólo manifiesta un cierto nivel de fluorescencia cuando se une al
sustrato. Entonces la emisión fluorescente aumentará en función de la concentración del
sustrato, siguiendo la misma relación de Michaelis-Menten. Por lo tanto, esta señal óptica en
principio puede reportar cambios de concentración del sustrato. Si en cambio ambas formas del
indicador (libre y ligada) fluorescen, pero de una manera cuantitativamente diferente, el mismo
acercamiento vale, pero (i) habrá siempre un nivel de fluorescencia basal (ii) los cambios en la
fluorescencia al cambiar la concentración del sustrato serán más modestos. Es fácil ver que en
este caso la fluorescencia será:
A[IS] + B[I]
Donde las constantes A y B reflejan la fluorescencia del indicador unido al sustrato, y el
indicador libre, respectivamente.

105
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Hay dos consideraciones muy importantes para el uso efectivo de este acercamiento. En primer
lugar, el indicador debe tener una afinidad para el sustrato que sea del mismo orden de las
concentraciones de sustrato libre que se pretenden medir: si en cambio la afinidad es muy alta
en relación a las concentraciones de sustrato, la gran mayoría de las moléculas de indicador
estarán ligadas a todas horas, y todo cambio ulterior en [S] producirá una alteración
despreciable en la concentración del complejo.
Por lo tanto, la fluorescencia no variará de una
manera significativa en función de las
fluctuaciones en [S]: el indicador se encontrará
saturado (Figura 5.4). Así que es
imprescindible disponer de antemano de
alguna información acerca del rango de
concentraciones que se pretende monitorear, y
elegir un indicador cuya KD no sea menor que
dichos valores. De hecho, para simplificar la
interpretación de las observaciones puede ser
deseable que la afinidad sea tal que las
concentraciones esperadas de sustrato libre se
Figura 5.4
mantengan en el rango inferior de la curva de
Michaelis-Menten, donde [IS] guarda una relación ‘casi’ lineal con respecto a [S] (Figura 5.4);
en estas condiciones, la fluorescencia se puede considerar sencillamente proporcional a la
concentración de sustrato.
Por otra parte, si la afinidad es muy baja respecto a la concentración de sustrato (i.e. si KD>>
[S]), el número de complejos que se forman será muy pequeño y por lo tanto la señal de
fluorescencia lo será también, dificultando su detección. Por supuesto, para incrementar la
señal de fluorescencia se podría incrementar la concentración del indicador, pero esto presenta
otros problemas, que es preciso esclarecer a continuación. El hecho de que la sustancia
reportera necesita ligar una fracción de las moléculas de interés inevitablemente implica reducir
la población de sustrato libre. Como tal, la medición misma estaría alterando justamente la
variable a ser medida. Miremos el problema con un poco más de detenimiento. De la ecuación
(*):
β/α = KD = [S][I]/[SI]

y por lo tanto el cociente entre la concentración del sustrato unido al indicador y el sustrato libre
es:
[IS]/[S] = [I]/KD
Este parámetro, llamémoslo B, se conoce como la capacidad de tamponamiento (o ‘buffering
capacity”), y refleja el hecho de que la interacción sustrato-indicador atenúa los cambios que de
otra manera deberían ocurrir. Es el mismo efecto que ejerce un tampón de pH (como Tris,
HEPES, MOPS etc.): lograr minimizar las fluctuaciones en la concentración del sustrato (en ese
caso, protones) cuando el sistema es retado con la introducción de un ácido o una base. Solo
que en el caso presente el investigador no pretende fijar el nivel del sustrato: todo lo contrario,
se quiere monitorear sus cambios con la mínima interferencia. Consideremos una situación
especialmente sencilla para analizar y entender. Si nos encontramos en la porción casi lineal
de la curva (Figura 30) quiere decir que:
[IS] << [IT]
Por consiguiente, [I], el indicador libre, se puede aproximar con la constante IT, lo cual implica
que B es también prácticamente constante (B vendría siendo [IT]/KD). Si se requiere formar

106
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

muchos complejos para detectar la fluorescencia, se usaría una alta concentración del
indicador, por lo tanto el valor de B será grande. Supongamos que B fuera = 10, es decir hay
10 veces más sustrato ligado al indicador que sustrato libre. Pero esto trae consecuencias
importantes: por una parte, la concentración basal del sustrato libre puede haber bajado
significativamente con respecto al valor original, lo cual perturba la línea de base; pero además,
como se ha dicho, hay repercusiones sobre las fluctuaciones en la concentración del sustrato
libre, que es precisamente el interés primordial de este tipo de medición. Pensemos en lo que
pasaría en un ejemplo concreto, como una medición de calcio citosólico por medio de un
indicador fluorescente. Esta es una de las aplicaciones más frecuentes, ya que el calcio es un
mensajero intracelular esencial para el control de un sinnúmero de funciones, y su monitoreo
por medio de otros acercamientos es problemático. La célula es sometida a una cierta
estimulación que normalmente haría incrementar [Ca2+]i por una cantidad X, y se utiliza un
indicador cuya afinidad lo mantiene lejos de la saturación: puesto que en estas condiciones B
permanece prácticamente constante, y su valor en este caso es 10, sólo 1/10 de este aumento
se verá reflejado en la concentración de Ca libre, y estaremos seriamente interfiriendo con la
fisiología del sistema. Es imprescindible, por lo tanto, mantener esta contaminación al mínimo,
si se quiere evitar que nuestra medición sea invasiva. [Nota: en una célula real la situación se
complica ulteriormente porque existen además tampones endógenos de Ca].
Con el debido entendimiento de las variables implicadas y el uso de las precauciones
necesarias, de todos modos este acercamiento se ha revelado muy poderoso. La Figura 5.5
ilustra un ejemplo en el cual una célula fue cargada con el indicador de calcio Oregon Green
(el cual incrementa su fluorescencia cuando se une a calcio). Al aplicar estimulación que
despolariza la membrana y causa la apertura de canales iónicos calcio-selectivos, el influjo de
calcio (y por consiguiente la elevación de su concentración citosólica) produce un aumento
significativo en la fluorescencia, medida por medio de un fotomultiplicador. Es asombroso que
se logra monitorear cambios en la concentración de calcio que son del orden de pocas
millonésima de molar y ocurren en una célula
cuyas dimensiones son de una decena de
micras, el todo mientras la célula sigue
desempeñando sus funciones normales.
Desarrollos ocurridos en las últimas tres décadas
ha permitido extender este acercamiento a una
variada gama de otros iones intracelulares que
son de interés biológico: protones (pH), sodio,
cloruro, o zinc. Más aún, conjugando un
fluoróforo a moléculas que liguen sustancias
orgánicas más complejas, tales como el
mensajero interno AMP cíclico (cAMP) se torna
posible seguir en tiempo real la dinámica de Figura 5.5
diferentes procesos de señalización celular.

Indicadores ‘cociente-métricos’ (‘ratiometric’). Conociendo las características del indicador


(tales como su coeficiente de extinción, ε, su eficiencia cuántica, QE, y KD, la afinidad para
ligarse al sustrato) será posible derivar una medida cuantitativa de la concentración del sustrato
a partir de un registro de fluorescencia? En principio, uno pensaría que esto no debería poner
mayor dificultad, siempre y cuando uno conociera una serie de parámetros adicionales que
conciernen las condiciones bajo las cuales se efectúa la medición:
• la intensidad absoluta de la luz de excitación (L)
• la concentración total del indicador ([IT])

107
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

• el volumen muestreado (V)


(este último parámetro es indispensable debido a que la luz emitida refleja el total de fluoróforos
excitados, y este número a su vez es el producto de concentración × volumen). Asumiendo la
situación simplificada en la cual sólo el complejo emite luz fluorescente, podemos expresar
cuantitativamente la intensidad de la fluorescencia, F, como:
F = L×ε×QE×V× [IS] ≈ L×ε×QE×V× [IT] /(1 + KD/[S])
De esta expresión se puede despejar [S], la concentración absoluta del sustrato libre.
Lamentablemente, la concentración del indicador y el volumen pueden ser difíciles de estimar
en ciertas situaciones, particularmente cuando se trata de mediciones intracelulares: el primero
porque pocas técnicas permiten monitorear con precisión la cantidad de indicador introducido al
interior de una célula; el segundo porque la geometría celular puede ser muy compleja. Sin
embargo, existe un acercamiento que ha proporcionado una avenida muy útil en este respecto,
el cual se basa en comparar dos mediciones de fluorescencia. Supongamos que un cierto
indicador fluoresce tanto en el estado libre como en complejo con el sustrato, pero su espectro
de emisión se desplaza a lo largo de la abscisa; la Figura 5.6 ilustra el ejemplo del indicador de
calcio Indo-1 (el hecho de que los dos
espectros difieran además en su amplitud
es irrelevante). Consideremos dos
longitudes de onda: una (λ1) que coincide
con el punto donde las dos curvas se
cruzan (conocido como un punto
isosbéstico) y otra (λ2) donde las dos
curvas difieren considerablemente. La luz
emitida a la longitud de onda λ1 sólo
depende de la cantidad total de indicador
(i.e. concentración y volumen
muestreado), sin importar su estado (libre
o ligado) y por lo tanto es independiente
de la concentración de sustrato. En
Figura 5.6 cambio, la luz emitida a la longitud de
onda λ2 depende además de la fracción de indicador que se encuentra libre vs. ligado:
obviamente, si gran parte del indicador está en complejo con el sustrato (como se espera
cuando [S] aumenta), en el ejemplo de la Figura 5.6 el total de luz emitida será menor, puesto
que a λ2 el complejo fluoresce menos que el indicador libre (si escogiéramos λ2 entre 400 y
≈440 nm, lo opuesto ocurriría). Podemos ahora calcular el cociente de la fluorescencia
registrada a las dos longitudes de onda:
Fλ2/ Fλ1
El valor obtenido ya no depende de la intensidad de la luz de excitación, ni de la concentración
del indicador, ni del volumen, ya que todos éstos factores han sido normalizados al dividir por la
fluorescencia medida en el punto isosbéstico: el cociente sólo refleja cual fracción del indicador
se ha unido al sustrato, lo cual reporta la concentración del sustrato. Es posible entonces
construir una escala cuantitativa de calibración, y derivar información sobre concentraciones
absolutas. Lo mismo se podría obtener con un indicador fluorescente cuyo espectro de emisión
permaneciera constante pero cuyo espectro de excitación sufriera un desplazamiento entre las
conformaciones libre y ligada (otro popular indicador de calcio celular, llamado Fura-2, funciona
de esta manera).

108
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Seguimiento óptico de cambios de voltaje. El monitoreo de cambios de concentración de


diferentes sustancias no es la única aplicación de la fluorescencia a la fisiología y la biofísica
celular: teniendo en cuenta que la emisión de fluorescencia es sensible al coeficiente dieléctrico
del entorno del fluoróforo (i.e. si el entorno es hidrofílico o hidrofóbico) se abren ulteriores
puertas. Una de ellas es construir moléculas que se insertan en la membrana y, al poseer
grupos cargados, se ‘hunden’ más o menos según el potencial eléctrico de la membrana. Si
estos cambios de posición desplazan el fluoróforo de un medio lipídico (la membrana
plasmática) a uno acuoso (bien sea el citoplasma o el medio extracelular) o viceversa, las
variaciones resultantes en la fluorescencia reportarán el voltaje de la membrana celular sin
necesidad de un microelectrodo interno, es decir de una manera mínimamente invasiva. La
Figura 5.7 ilustra esquemáticamente la lógica de este acercamiento. Más aún, si se utiliza una
cámara como detector, se tiene el
potencial de permitir el seguimiento del
voltaje de membrana de muchas células
al mismo tiempo, lo cual es
particularmente ventajoso, por ejemplo,
para estudiar redes interconectadas de
células neuronales o el propagarse de la
ola de despolarización en tejido
cardíaco. Este tipo de medición
resultaría muy complicada usando un
acercamiento eléctrico, el cual
necesitaría un gran número de micro- Figura 5.7
electrodos.
Medición de cambios conformacionales de proteínas. Se puede también aprovechar la
sensibilidad de la fluorescencia al coeficiente dieléctrico del entorno para monitorear posibles
cambios en la conformación de una proteína de membrana. Este acercamiento puede
aprovechar la presencia de aminoácidos aromáticos ‘nativos’ (e.g. triptófano) que son
intrínsecamente fluorescentes, Alternativamente, se puede conjugar un fluoróforo a un
aminoácido particular de la proteína, lo cual típicamente implica manipulaciones de ingeniería
genética: usualmente se sustituye, si es necesario, el aminoácido de interés por una cisteína,
cuya cadena lateral es muy reactiva, y presenta un grupo sulfidrilo que se presta para acoplar
otras moléculas mediante un puente disulfuro. Al expresar la proteína mutada en alguna línea
de células en cultivo (y habiendo eliminado o inactivado otras cisteínas que pudieran existir en
dicha proteína), se introduce el fluoróforo (el cual se liga al sitio específico), y se monitorea la
fluorescencia. Si, al aplicar estimulación (e.g. neurotransmisores, cambios en el voltaje de
membrana, etc.) se induce una transición conformacional de la proteína tal que los aminoácidos
marcados se sumergen en los lípidos o se asoman al medio de alto coeficiente dieléctrico (bien
sea extracelular o citoplasmático) se produce un cambio en la fluorescencia.

FRET. Finalmente, existe un fenómeno, llamado transferencia de energía por resonancia de


fluorescencia (FRET: Fluorescence Resonance Energy Transfer, también conocida como
resonancia de Förster) que permite monitorear cambios en la proximidad entre moléculas de
diferente clases. Este se basa en que si el espectro de emisión de una molécula fluorescente
(designada como el donante) sobrelapa con el espectro de excitación de otra molécula (el
aceptor), entonces al estimular el donante se puede transferir la energía absorbida al aceptor,
el cual fluoresce a su característica longitud de onda. Esta transferencia de la energía de
excitación ocurre directamente por resonancia electromagnética, sin emisión de un fotón, y
depende fuertemente de la separación entre donador y aceptor. La eficiencia del FRET decae
con la sexta potencia de la distancia, por lo tanto el fenómeno ocurre solamente cuando los dos

109
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

fluoróforos están en estrecha proximidad, del


orden de angstroms, tal como se espera cuando
dos proteínas están interactuando (e.g. un ligando
y su receptor). La Figura 5.8 ilustra el concepto:
notar que la luz de excitación para el donante
(flecha morada) lo hace fluorescer (la flecha azul
representa la emisión), pero no es capaz de inducir
fluorescencia en el aceptor, el cual requeriría una
longitud de onda más larga (panel superior). En
cambio, cuando el aceptor recibe la energía de
excitación que el donante le transfiere por
resonancia (lo cual requiere estrecha proximidad
Figura 5.8 espacial entre los dos), el aceptor produce una
emisión a la longitud de onda característica de su propia fluorescencia (flecha verde-amarilla).
Es decir, en condiciones en las cuales donante y aceptor se acercan, al irradiar con una
longitud de onda apropiada para excitar al donante, se observa en cambio fluorescencia de
longitud de onda del aceptor. En la mayoría de las aplicaciones se utilizan moléculas que han
sido conjugadas artificialmente a fluoróforos que funcionen como ‘partners’ para FRET; una de
las parejas más utilizadas son CFP (Cyan Fluorescent Protein) como donante y YFP (Yellow
Fluorescent Protein) como aceptor y emisor. Por ejemplo, si se quiere averiguar si cuando se
activa la proteína A, ésta interactúa con la proteína B, acoplaríamos un donante y un aceptor
fluorescentes a las dos proteínas; se esperaría que en condiciones basales la irradiación con
luz que excite el fluoróforo de la proteína A resultara en emisión de su fluorescencia
característica. Pero bajo condiciones de estimulación que lleven a que las dos proteínas se
junten, la misma luz aplicada causaría la transferencia de la excitación de A a B, y ésta última
emitiría luz fluorescente de otra longitud de onda. De esta manera se puede corroborar cuando
dos moléculas llegan a interactuar.

110
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

6. Elementos de microscopia
Habiendo revisado los principios más elementales de la óptica, en las secciones siguientes de
estas notas se considerará la aplicación de dichos principios primero a uno de los instrumentos
de más amplia utilización en bio-medicina, y luego a la fisiología del ojo. El microscopio tiene la
dudosa distinción de ser tal vez la herramienta más ubicua en ciencias biológicas y al mismo
tiempo la más abusada: el motivo es en parte la arraigada creencia que su uso sólo requiere
prender el aparato enfocar la muestra y observar – sin exigir otro conocimiento por parte del
usuario. En realidad, hay que entender numerosas complejidades para poder explotar sus
posibilidades. Al introducir una descripción elemental pero sistemática del microscopio se
espera establecer las bases para su uso correcto: de nada sirve una invertir una cuantiosa
suma para adquirir un instrumento de calidad si luego, al desconocer los principios, se utiliza de
una manera falaz y se obtienen imágenes de mediocre calidad, que aún un instrumento de
juguete podría producir! Más aún, se quiere también mostrar la existencia de una miríada de
acercamientos que proporcionan nuevos horizontes para la observación, y enfatizar que la
tecnología de la microscopia no es un libro cerrado, sino un campo en perenne desarrollo, en el
cual nuevos retos y acercamientos creativos originan constantemente novedosos diseños de
instrumentos que pueden proporcionar información insospechada.
Diseño básico de un microscopio. En una gran cantidad de ramas de las ciencias bio-médicas,
se trabaja con objetos de dimensiones minúsculas (células, por ejemplo) y en muchas
instancias es preciso poderlos visualizar. Uno de los instrumentos más ubicuos es el
microscopio de luz, cuyo propósito es generar imágenes altamente magnificadas que revelen
finos detalles del espécimen. Ya sabemos que, debido al límite de difracción, la resolución que
se puede alcanzar dependerá de la longitud de onda utilizada y de la apertura numérica del
sistema óptico; para luz visible, en la práctica esto quiere decir que se podrán resolver detalles
de poco menos de una micra (10-6 m o una milésima de milímetro), lo cual es adecuado para
células y algunas estructuras sub-celulares. Si se requiere una resolución más fina, hay que
utilizar radiación de menor longitud de onda, y eso precluye el uso de de la luz visible; para
aplicaciones de esa índole hay que acudir al microscopio electrónico.

El diseño del microscopio de luz contempla dos estadios, de allí el nombre microscopio
compuesto. En primer lugar, el objeto (la muestra) es enfocado por el objetivo. En lo que sigue
consideraremos el objetivo como si estuviera constituido por un solo lente delgado; en la
realidad se trata de un sistema complejo de hasta más de una docena de lentes, diseñados
para corregir las varias aberraciones, pero este acercamiento simplificado nos permite extraer
la esencia básica del cómo está construido un microscopio. El objetivo se designa por su
magnificación (10×, 20×, 40× etc.), pero realmente sabemos que un lente (convergente) puede
producir cualquier magnificación
(dependiendo de que tan lejos esté del
plano-objeto y del plano-imagen). En el
caso del microscopio, la magnificación
queda fijada porque se ha establecido
una distancia estándar entre objetivo e
imagen; tradicionalmente los
microscopios (‘derechos’ o upright)
prescriben una distancia de 160 mm (los
invertidos 210 mm). Por lo tanto, si un
objetivo esta designado como ‘40×’,
quiere decir que la imagen que se ha de
formar 160 mm atrás del objetivo debe Figura 6.1

111
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

ser 40 veces más grande que el espécimen, lo cual implica que la distancia entre el frente del
objetivo y el espécimen debe se 40 veces menor que 160 mm, i.e. 4 mm. Debido a la ley 1/f =
1/d1 + 1/d2, (aproximación que aplicamos aquí de manera más bien abusiva, ya que no se trata
de lentes delgados) esto es lo mismo que especificar para ese objetivo una distancia focal tal
que 1/f = 1/160 + ¼ = 41/160 ⇒ f ≈ 3.9 mm. La imagen generada por el objetivo se denomina
imagen intermedia, y es a su vez magnificada ulteriormente antes de ser registrada por el
observador. En la Figura 6.1 el primer lente a la izquierda representa el objetivo del microscopio
(el cual, como ya se ha dicho, en realidad está constituido por un sistema de muchos lentes).
Un segundo elemento óptico, el ocular, se encarga de esta segunda fase. La imagen
intermedia se encuentra a una distancia del ocular que es menor que la distancia focal de éste;
por lo tanto, se forma una imagen virtual al mismo lado que la imagen intermedia, desplazada
aún más hacia el objetivo. La magnificación de la imagen virtual obedece también la regla M =
di/do; por lo tanto, si el ocular tuviera una magnificación de 10x, la imagen virtual se formaría a
una distancia diez veces mayor respecto al ocular. Un observador la visualizaría manteniendo
el ojo relajado, como si estuviera mirando un objeto relativamente distante (típicamente, unos
25-30 cm). La magnificación total viene siendo el producto de las dos magnificaciones (la del
objetivo y la del ocular). Notar que uno podría obtener la misma magnificación total con
distintas combinaciones de objetivos y oculares: por ejemplo, bien sea con objetivo 40× y
oculares 5× o con objetivo 10× y oculares 20×, se genera una magnificación final de 200×; sin
embargo, debido a que el objetivo de menor magnificación suele tener menor apertura
numérica, produce un disco de Airy más grande (y por lo tanto menor resolución de la imagen
intermedia), y los oculares sólo agrandarán esa imagen, sin recuperar detalles. Por eso es
importante no confundir la magnificación (que solamente hace referencia al tamaño de una
imagen respecto al del objeto que representa) con la resolución (que determina el nivel de
detalle que se podrá discernir en la imagen). Agrandar una imagen sin derivar ulterior detalle
se suele llamar “magnificación vacía”. El arreglo de elementos ópticos descrito anteriormente
se llama el tren óptico de la imagen. Hay que destacar que en años recientes muchos
fabricantes de microscopios han optado por un esquema ligeramente diferente, en el cual la
muestra se coloca a la distancia focal al frente del objetivo, con lo cual éste no forma una
imagen, sino produce haces paralelos que requieren de un lente adicional para enfocar (‘lente
del tubo’). Este arreglo (conocido como ‘objetivos corregidos a infinito’) presenta ciertas
ventajas prácticas (e.g. para introducir
accesorios y filtros adicionales en el camino
óptico) pero no altera de una manera
fundamental el diseño del microscopio.
Un aspecto igualmente importante concierne el
haz que ilumina la muestra, y se llama el tren
óptico del iluminador. Este se origina en una
fuente de luz y una serie de elementos cuyo
propósito es optimizar la uniformidad de la
iluminación de la muestra, el contraste e
inclusive la resolución de la imagen que se
obtiene. Köhler creó el sistema más utilizado
para este propósito, ilustrado en la Figura 6.2.
Los elementos básicos del sistema de
iluminación son: (i) la lámpara (más
exactamente, el filamento del bombillo) (ii) el
colector (un(os) lente(s) colocados al frente del
bombillo) (iii) el condensador (iv) el diafragma
de campo (v) la apertura del condensador (otro Figura 6.2

112
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

diafragma). El colector forma una imagen del filamento al nivel del plano focal del condensador;
por lo tanto, los rayos que emanan de cada punto de esta imagen, al encontrarse a la distancia
fc respecto al condensador, dan origen a un haz paralelo (la figura muestra uno solo de ellos) lo
cual permite iluminar uniformemente el espécimen. Los rayos que se originan de los diferentes
puntos-imagen del filamento son colimados pero cada uno incide con una inclinación diferente
sobre la platina con el espécimen. (Nota: necesariamente se forma una segunda imagen del
filamento en el plano focal posterior del objetivo,
la cual es proyectada por los oculares sobre la
entrada del ojo, que queda también
uniformemente iluminado).
El diafragma de campo limita la apertura del
colector, y se encuentra en un plano conjugado
al del objeto: en otras palabras, el condensador
proyecta la imagen de este diafragma en el
plano del espécimen, de tal manera que al
abrirse y cerrarse el observador ve un disco
iluminado netamente definido cuyo tamaño se
agranda o se achica, sin alterar su nivel de
Figura 6.3
luminosidad; este efecto se ilustra en los dos
paneles superiores de la Figura 6.3. En la
práctica, el diafragma de campo se mantiene
abierto apenas un poco más que el campo visual, ya que abriéndolo ulteriormente sólo se
añade ‘reverberación’ de luz que degrada la calidad de la imagen. En cambio, el segundo
diafragma, la apertura, está ubicado en el plano de la imagen del filamento (que no es
conjugado al del espécimen, sino al objetivo y la entrada del ojo). Al abrirse y cerrarse no
cambia por lo tanto la región iluminada, sino se altera el ángulo del cono de rayos colimados
que iluminan la muestra; eso cambia la intensidad de la iluminación, simultáneamente
disminuyendo o aumentando el contraste; el efecto se puede apreciar en los dos paneles
inferiores de la Figura 6.3. La apertura del condensador se abre o cierra lo que hace falta para
obtener el balance deseado entre contraste y resolución. Es importante recalcar que en la
modalidad de luz
transmitida la
apertura numérica
del condensador
repercute sobre la
resolución, y por
consiguiente cerrar
en exceso la apertura
del condensador
causa una pérdida de
detalle; éste suele
ser el error más
frecuente del
microscopista novato.

Los microscopios de
luz transmitida se
fabrican en dos
versiones, derechos, Figura 6.4
e invertidos. Tanto el

113
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

tren óptico de la imagen como el del iluminador son esencialmente idénticos en los dos casos,
la única diferencia concierne la dirección del haz de luz respecto a la muestra: en el
microscopio derecho, éste ilumina al espécimen desde abajo, mientras que en el invertido lo
hace desde arriba. La Figura 6.4 ilustra los dos tipos de microscopio. Existen unas ventajas del
microscopio invertido cuando se trabaja con una muestra biológica como células en cultivo: al
encontrarse el espécimen en el fondo (preferiblemente de vidrio delgado) de la cámara, se
puede acercar mucho al objetivo, lo cual es especialmente valioso cuando se trata de objetivo
de gran apertura numérica y magnificación, que suelen tener una distancia de trabajo reducida
(la distancia entre el lente frontal del objetivo y la muestra). De lo contrario, si el objetivo
estuviese arriba (como en un microscopio derecho), podría no lograrse la corta distancia
necesaria para enfocar la muestra, o tocaría utilizar objetivos especialmente diseñados para
sumergirlos en el medio acuoso (objetivos de inmersión, ver más adelante). Una segunda
ventaja es disponer de un mejor acceso a la muestra para manipulaciones fisiológicas durante
la visualización (por ejemplo, para insertar microelectrodos), ya que la separación entre
muestra y condensador es mucho mayor y deja considerable espacio libre.

Objetivos de inmersión. El diseño de un microscopio busca optimizar la resolución de la


imagen, y ya sabemos que una consideración crítica concierne la apertura numérica del
objetivo. Sin embargo, en la mayoría de las aplicaciones biológicas se presenta un problema: el
espécimen (tejido, células) se encuentra en un medio líquido y/o cubierto por una capa de
vidrio, la lámina cubre-objetos. Sabemos que la finura de la resolución óptica requiere que el
objetivo colecte el cono más ancho posible de los rayos de luz que emanan de cada punto del
espécimen, pero lograr una gran apertura numérica del objetivo puede no cumplirse en estas
condiciones de observación: los rayos provenientes de la muestra han de viajar por líquido y/o
vidrio, y luego cruzar el espacio de aire (cuyo
índice de refracción es menor que el vidrio y/o
el agua) que lo separa del lente frontal del
objetivo. Los rayos que cruzan esa interfase
oblicuamente sufren una desviación que los
hace divergir ulteriormente del eje óptico, por lo
tanto sólo un cono estrecho realmente alcanza
a entrar por el objetivo, pese a que éste tenga
una alta apertura numérica. Es más, los rayos
más oblicuos pueden ‘acostarse’ y propagarse
por la interfase, o inclusive rebotar del todo; la
Figura 6.5A muestra este fenómeno, que es
una consecuencia de la ley de Snell. Una forma
de evitar este problema es interponiendo entre
el vidrio cubre-objetos y el lente frontal del
objetivo un medio transparente cuyo índice de
refraccíon sea similar al del vidrio; aceites
especiales (y, en otros casos, agua o glicerina)
se utilizan para éste propósito. Al tener un
índice de refracción homogéneo en los tres Figura 6.5
medios (cubre-ojetos, acéite, y lente) los rayos
de luz no se desvían al cruzar las interfases, y se logra efectivamente una alta apertura
numérica (Figura 6.5B). Los objetivos especialmente designados para este uso (y solamente
esos!) se conocen como objetivos de inmersión, y requieren siempre el uso de una gota de un
medio líquido específico. Por supuesto, si los rayos de luz no encuentran un cambio de índice
re refracción al encontrar la superficie del lente del objetivo, tampoco serán refractados: la

114
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

refracción en un lente de inmersión ocurre en la superficie posterior del lente (la frontal suele
ser plana), donde el rayo, al emerger del vidrio, se encuentra en el aire.

A la luz de estas consideraciones y lo discutido anteriormente, es evidente la importancia de las


características de los objetivos a ser utilizados en una aplicación dada. Se debe por lo tanto
prestar suma atención a los códigos inscritos en cada objetivo, los cuales incluyen:
- La magnificación
- La apertura numérica
- La necesidad de un medio entre el
espécimen y el lente frontal
(ninguno/agua/aceite/glicerina)
- La necesidad de un vidrio cubre-objetos y
su espesor (e.g. 0.17 indica un cubre-
objetos de 170 μm, es decir ‘#1’)
- La corrección cromática (ninguna /
acromatica / apocromática / neofluar)
- La corrección de distorsión de campo
(‘plan’)
La Figura 6.6 ilustra los diferentes parámetros
marcados en un objetivo. Figura 6.6

Aumento de contraste
En la descripción anterior, el observador visualiza el objeto por medio de un haz de luz que
pasa a través de la muestra (microscopía de luz transmitida). Esto implica que la imagen
necesariamente refleja que tanto distintas partes del objeto absorben diferencialmente la luz
que lo atraviesa. Muchas células
y tejidos son básicamente
transparentes y además, por la
ley de Lambert, la absorción de
luz crece exponencialmente con
el espesor del medio, y el trayecto
a través de una célula es
sumamente corto. Por
consiguiente, en la imagen que se
forma es difícil reconocer
estructuras o detalles, ya que
todos los rayos de luz, sin
importar por donde pasen, tienen Figura 6.7
casi la misma intensidad. El panel
A de la Figura 6.7 muestra gráficamente este problema. Una estrategia en uso desde los
comienzos de la histología pretende obviar esta limitante tiñendo los tejidos o células con
colorantes de muy alto coeficiente de extinción que diferencialmente adhieren a distintas
estructuras (por ejemplo al núcleo, o a la membrana); debido a que un colorante absorbe luz,
es posible entonces discernir células individuales o algunas de sus características. En el panel
B de la Figura 6.7 se puede comparar una misma preparación de células en cultivo sin y con un
colorante que las haga visibles. Hay limitantes en el uso de tinciones: en muchos casos esas
tinturas son nocivas y por lo tanto se suelen aplicar sólo a tejidos muertos preservados con un
fijativo (por ejemplo, formaldehido). Esto ha estimulado el desarrollo de métodos alternativos

115
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

que se pudieran aplicar de una manera no invasiva a células vivas, para incrementar el
contraste de la imagen y poder visualizar detalles que sería imposible discernir con base en la
simple intensidad de la luz que pasa por la muestra. La mayoría de estos métodos explotan una
de las dos siguientes características de la luz y su interacción con la materia:
• Por una parte, se ha visto que la luz al incidir sobre un objeto es difractada, es decir,
puede sufrir una re-dirección.
• También sabemos que su velocidad de propagación se altera, dependiendo del medio
por el cual transita; en algunos materiales el índice de refracción puede inclusive
depender de la polarización de la luz y de la orientación de ese vector con respecto a la
de la muestra.
Estos fenómenos no merman la intensidad de la luz, ya que no hay absorción, es decir, pueden
darse en una muestra perfectamente transparente. Para convertir estos cambios en diferencias
de intensidad, a menudo se aprovecha la interferencia: el hecho de que dos ondas
electromagnéticas de la misma frecuencia al encontrarse pueden interactuar bien sea
constructivamente (sumándose, si se encuentran en fase) o destructivamente (cancelándose, si
están fuera de fase). Estas consideraciones
han dado origen a diferentes abordajes, como
por ejemplo la microscopía de contraste de
fase, inventada por Zernike (quién recibió el
Premio Nobel para la Física por esa
contribución), y la de contraste de interferencia
diferencial (DIC – Differential Interference
Contrast), inventada por Nomarski. A
continuación se describirá brevemente la
Figure 6.8
segunda, por ser un método más moderno y
simple de explicar:
Microscopía de Nomarski. Primero que todo, aclaremos de qué forma las diferencias en índice
de refracción entre el espécimen y su entorno (y las diferencias entre distintos puntos del
espécimen) pueden utilizarse
para generar diferencias en
la intensidad de luz. En la
Figura 6.8 se ilustran dos
rayos colimados y
coherentes (i.e. paralelos,
con la misma frecuencia de
oscilación y fase). Uno de
ellos (el de arriba) sólo pasa
por el medio en el cual se
encuentra el objeto de
interés, sin atravesarlo; el
otro, en cambio, pasa por el
espécimen, que asumimos
tiene un mayor índice de
refracción). El segundo rayo
por lo tanto se retrasa al
transitar por un medio de
menor velocidad de
propagación de la luz, y Figura 6.9
cuando emerge está

116
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

desfasado con respecto al primero. Si a este punto los dos rayos interactuaran, habría
interferencia destructiva y por consiguiente una disminución de la amplitud de la onda
resultante (menor intensidad). Este principio sugiere que podríamos crear algún arreglo que
nos permitiera convertir cambios locales en índice de refracción en cambios de intensidad de
luz, pese a que el objeto mismo, al ser transparente, no ha absorbido luz alguna. La esencia de
la microscopía de Nomarski se ilustra en la Figura 6.9A, y consiste en pasar un rayo de luz
linealmente polarizado por un prisma (‘prisma de Wollaston’) que lo descompone en dos rayos
también polarizados pero perpendicularmente el uno al otro, y separados ligeramente. Cuando
este par de rayos cruzan el espécimen (e.g. una célula) pueden bien sea pasar por medios
similares (como ocurre con los pares de rayos #1 y #3 en la figura 6.9B), o pueden encontrar
distintas estructuras que difieren en términos de índice de refracción (par de rayos #2). En este
último caso, uno de los dos rayos se retarda respecto al otro, y su oscilación electromagnética
se desfasa. Al emerger del espécimen, los dos rayos son re-combinados por otro prisma de
Wollaston y pasan por un segundo polarizador orientado a 90° (llamado el analizador);
dependiendo de si están en fase (i.e. si ninguno se atrasó respecto al otro) o no, pasará más o
menos luz por el analizador. Por lo tanto se
crearán diferencias en la intensidad de luz que
emerge de la muestra (que el ojo puede percibir),
a partir de diferencias en el índice de refracción de
distintas estructuras (que el ojo no podría percibir
directamente). Esto permite revelar detalles que
de otra manera serían invisibles. La Figura 6.10
muestra como ejemplo una micrografía de
Nomarski de unas células de neuroblastoma en
cultivo: notar la apariencia ‘en relieve’ (mientras
que bajo microscopía convencional de campo
claro estas células aparecerían prácticamente
transparentes), e inclusive la detección del
Figura 6.10 contorno del núcleo y el nucléolo en algunas
células.

Microscopía de contraste de fase. Esta técnica de


aumento de contraste fue la primera a ser
desarrollada. Hemos postergado la presentación de
este acercamiento porque, pese a su antigüedad y uso
muy común, la explicación es un poco más compleja.
En este método una ‘mascara’ al frente del iluminador
bloquea gran parte de haz de iluminación,
exceptuando una región anular. Este elemento,
llamado diafragma anular consiste en una pantalla
negra y opaca con sólo un anillo transparente, y se
coloca antes del condensador, a una distancia que
corresponde justamente a la longitud focal del
condensador (ver Figura 6.11). Como tal, la luz que
emana de cada punto del anillo transparente (y que
sea captada por el condensador) se convierte en un
haz paralelo. Al entrar al objetivo del microscopio,
cada haz colimado se vuelve a enfocar en un ‘punto’,
lo cual ocurre en el plano focal posterior del objetivo
(por definición de distancia focal, rayos que entran
paralelos se encuentran en ese punto al otro lado del Figura 6.11

117
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

lente). En dicho plano, por lo tanto, se forma una imagen del


anillo de iluminación (mientras que cuando atraviesa el plano
del espécimen la luz pasa de una manera difusa, lo cual
garantiza una iluminación espacialmente homogénea). El plano
donde se ha de formar la imagen de espécimen se encuentra,
por supuesto, más lejos que la distancia focal posterior del
objetivo, y a este nivel el haz de iluminación anular se ha vuelto
a desenfocar. La Figura 6.11 aclara todas estas relaciones.
Ahora introducimos un elemento adicional, llamado placa de
fase (Figura 6.12); éste se coloca también en el plano focal
posterior del objetivo, es decir, a la misma altura donde se
forma la imagen enfocada del anillo de iluminación (la placa de
fase suele estar incorporada en el mismo objetivo). La placa de
fase está construida con un material transparente, pero contiene
una región anular bien sea menos espesa o hecha de un
material cuyo índice de refracción es menor que el resto de la
placa; el resultado es que la luz que pase por este anillo sufre
un retardo menor que la que pasa por el resto de la placa, la
diferencia siendo de ¼ de longitud de onda (λ/4 o 90˚). Este
anillo tiene exactamente las mismas dimensiones y la misma
posición en el plano x-y que la imagen del anillo de iluminación.
En ausencia de una muestra en la platina del microscopio, el
Figura 6.12 haz de iluminación anular pasa enteramente por el anillo de
fase, y prosigue, desenfocándose progresivamente, hasta el
plano de la imagen donde produce una región de iluminación difusa. En otras palabras,
mientras no exista espécimen, la placa de fase no altera el patrón de luz, sólo su fase. Ahora
supongamos que se ponga una muestra en el plano focal del espécimen. Al llegar al objeto,
algunos de los rayos serán difractados, y por lo tanto su trayectoria se desviará, con la
consecuencia de que al llegar a la placa de fase ya no pasarán por el anillo sino bien sea por la
región interna o externa a él. Una propiedad de la luz difractada (cuya explicación trasciende el
propósito de estas Notas) es que además de sufrir una alteración en la dirección, se retardada
su fase por ¼ de λ. Los rayos difractados por cada punto del objeto se enfocarán en el plano-
imagen (ya que se trata de planos focales conjugados), donde llegarán desfasados por 180˚
con respecto a los rayos no refractados (90˚ debido a la difracción y otros 90˚ por pasar fuera
de la región anular). Por lo tanto se creará una interferencia destructiva, con la consiguiente
disminución de la intensidad de la luz en ese punto: el objeto se verá oscuro sobre un campo
claro. Dependiendo del grado de difracción por distintos puntos del objeto, habrá una gradación
de oscuridad, así que se percibirán matices. Puesto que sólo unos pocos sufren una
desviación, el anillo de fase (por donde han de pasar la mayoría de los rayos, que no son

118
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

refractados) se construye con un material


parcialmente absorbente que atenúe la intensidad
de la luz, logrando hacerla más parecida a la de los
pocos rayos refractado. De esta manera se
optimiza la interferencia en el plano-imagen, y la
posibilidad de visualizar el objeto con buen
contraste. De hecho, si se examina un objetivo de
fase en contra-luz, es fácil discernir la presencia de
un pequeño anillo de color gris. Hace falta recalcar
que la viabilidad de esta técnica requiere una
coincidencia espacial exacta entre la imagen del
anillo de luz y el anillo en la placa de fase. Por eso
en un condensador de fase usualmente están
disponibles varios diafragmas anulares
(identificados como Ph1, Ph2, Ph3…) cuyo tamaño
hace que la imagen del anillo luminoso justamente
tenga las mismas dimensiones que el anillo que
está incluido en un objetivo de fase (el cual
también se identifica con el mismo código, bien sea
Ph1, 2 etc.). Además, la posición espacial debe
ajustarse con exactitud para que los dos anillos
sobrelapen; esto se logra con dos tornillos que Figura 6.13
desplazan el diafragma anular en el condensador
en el plano x/y. Para monitorear ese ajuste, el
observador tiene que poder visualizar el plano posterior del objetivo, lo cual no se puede hacer
en la configuración normal del microscopio (donde lo que se enfoca es el plano del espécimen);
esto se logra re-emplazando el ocular con un elemento especial llamado telescopio de fase,
que tiene una longitud focal diferente (alternativamente, uno puede simplemente quitar el ocular
y mirar directamente dentro del microscopio). Notar que en ningún momento se asumió que el
espécimen absorbe luz: se trata por lo tanto de un objeto transparente. Este acercamiento
permitió en la primera mitad del siglo XX observar por primera vez células que no se hubieran
podido visualizar por simple luz transmitida. La Figura 6.13 muestra una imagen en microscopía
de contraste de fase de unas neuronas del mesencéfalo de rata mantenidas en cultivo primario:
aún los finos procesos que crecen luego de unos días en cultivo son claramente discernibles.
Si se intentara observar el mismo espécimen con un microscopio convencional de campo claro,
lo que se vería sería esencialmente un parche casi uniforme, en el cual no se podría distinguir
claramente ningún objeto.

Microscopía de campo oscuro. Vale la pena mencionar una forma particularmente sencilla de
visualizar objetos transparentes es la así llamada microscopía de campo oscuro. Su esencia
está ilustrada en la Figura 6.14: se utiliza un condensador que, a través de un arreglo de
espejos curvos o una mascarilla, aplica iluminación al plano del espécimen a un ángulo
rasante, demasiado oblicua para que la luz pueda ser captada por el objetivo. El resultado es
que, en ausencia de una muestra, el campo se ve completamente oscuro. Ahora, si se
introduce un objeto, éste puede difractar parte de la luz que incide sobre él, con el resultado de
que algunos rayos se desvían y pueden entrar al objetivo; en el plano imagen veríamos por lo
tanto un objeto claro sobre un fondo negro.

119
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Figura 6.14

120
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Microscopía de fluorescencia
Hay otra técnica de microscopía que no pretende incrementar el contraste, sino visualizar
muestras o localizar moléculas, aprovechando
el fenómeno de la fluorescencia, descrito
anteriormente. Las moléculas fluorescentes
pueden ser intrínsecas de la muestra, o pueden
haber sido añadidas por el observador (por
ejemplo, anticuerpos conjugados a un
fluoróforo, que han sido generados para
reconocer una proteína específica).
Usualmente se utiliza un arreglo en el cual el
rayo de excitación se aplica a la muestra por el
mismo objetivo (‘microscopía de epi-
fluorescencia’, ver Figura 6.15). Para lograrlo,
el haz proveniente de la fuente de luz de
excitación (colocada perpendicularmente al tren
óptico de la imagen), rebota contra un reflector
dicróico (un espejo de interferencia colocado a Figura 6.15
45°, el cual refleja la luz de λ más corta que un
cierto valor crítico pero deja pasar la luz de λ más larga que el valor crítico). Así que el haz de
excitación (flecha azul) se mete por el objetivo, e irradia la muestra excitando el fluoróforo. La
luz fluorescente emitida por la muestra es colectada por el objetivo pero, siendo de longitud de
onda más larga (por el desplazamiento de Stokes descrito anteriormente), al llegar al espejo
dicróico pasa derecha y puede ser visualizada. Para incrementar la especificidad de la
observación, es decir la confianza de que la fluorescencia observada se debe específicamente
a la molécula en la cual uno está interesado, se acostumbra
limitar la luz que irradia la muestra de tal manera que
contenga solamente longitudes de onda a las cuales el
fuoróforo en cuestión responde de una manera óptima; esto
se logra con un filtro interpuesto en el haz de epi-iluminación,
llamado el filtro de excitación, el cual deja pasar una banda
limitada de longitudes de onda, seleccionada con base en el
espectro de absorción del fluoróforo.
Sin embargo, esto no garantiza que en la muestra no estén
presentes otras moléculas fluorescentes que también sean
excitadas por esas mismas longitudes de onda; pero si éstas
emiten luz a otra longitud de onda (flecha amarilla) entonces
uno puede limitar tal contaminación interponiendo un segundo
filtro, el filtro de barrera, ubicado antes del detector o de los
oculares, con lo cual la recolección de luz se ciñe a una banda
estrecha que represente solamente al espectro de emisión del
fluoróforo de interés (flecha verde). En la Figura 6.16 se ilustra
un ejemplo: células de una línea tumoral (HEK 293) fueron
trasfectadas con un plasmido que codifica la proteína amarilla
fluorescente (YFP, la cual en realidad emite luz verde, pese al
nombre) fusionada a otra proteína de interés. Bajo un
Figura 6.16 microscopio de fluorescencia equipados con filtros de

121
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

excitación y de emisión idóneos para la YFP, las células en la cuales hubo expresión
heteróloga del constructo emiten luz de una manera muy clara.

Microscopía confocal
El uso de la microscopía de fluorescencia ha sido sumamente útil para visualizar estructuras
celulares, co-localizar moléculas,
monitorear cambios en la concentración
de iones como el calcio, etc. Una
limitación de esta técnica es la
interferencia de la fluorescencia que se
origine en planos por encima o por
debajo del plano focal, y que
contribuyen un halo difuso que degrada
la calidad de la imagen. Esto se debe a
que moléculas fluorescentes ubicadas
en otras posiciones a lo largo del eje z
también son irradiadas por el haz de
excitación, como ilustra el panel de la
Figura 6.17 izquierda de la Figura 6.17, en el cual
se muestra sólo el camino de la luz de
excitación. Para simplificar el análisis, solamente están indicados dos fluoróforos, uno en el
plano enfocado y otro por debajo (puntos rojos). Al emitir luz, las moléculas ubicadas fuera del
plano focal (objeto O2) contribuyen una luz desenfocada; el camino de la luz emitida está
representado en el panel de la derecha de la Figura 6.17, el cual muestra este efecto (los rayos
emitidos por el objeto en foco y por el objeto fuera de foco se colorearon de lila y de azul,
respectivamente, para distinguirlos); notar que, debido a que la posición del punto O2 está fuera
del plano focal, los rayos que emanan de él convergen prematuramente en un punto-imagen, y
vuelven a desenfocarse al llegar al detector. Inevitablemente, la presencia de un fondo difuso
de fluorescencia disminuye el contraste de la imagen. Uno de los acercamientos que permite
obviar este problema es la así llamada microscopía confocal, representada esquemáticamente
en la Figura 6.18. En esta técnica el camino de epi-iluminación sólo permite paso de luz por un
diminuto agujero ubicado en un plano óptico conjugado al de la muestra. Como tal, sólo se
ilumina un punto de la muestra. En el tren óptico de la imagen hay un segundo agujero,
también en un plano conjugado, así que la imagen del primero es proyectada sobre el segundo
y la luz de la emisión fluorescente puede por lo tanto pasar y llegar a un detector muy sensible,
como un foto-multiplicador. Miremos
ahora que sucede con la fluorescencia
que se origina en otros planos ópticos: en
primer lugar, puesto que el rayo de
excitación está enfocado para
concentrarse en un punto en un cierto
plano, a distancias menores o mayores
este haz estará distribuido sobre un área
mayor (es decir, los rayos bien sea no
habrán convergido o bien habrán
convergido prematuramente y estarán
nuevamente divergiendo). Por
consiguiente, la densidad del flujo de
fotones (fotones/unidad de área) será
menor que en el plano focal, y la
Figura 6.18

122
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

excitación de moléculas fluorescentes también será menor. Pero además, cada punto
fluorescente en otros planos proyectarán su imagen a una distancia que no corresponde a la
posición del segundo agujero, y por lo tanto llegarán desenfocados, distribuidos sobre un área
más grande, y serán en gran medida bloqueados, ya que pocos de los fotones coincidirán con
el agujero. En conclusión, tanto la excitación de la muestra como la detección de la emisión de
la fluorescencia son mucho más eficientes en el plano focal que en otros planos, y por lo tanto
la fluorescencia fuera de foco queda en gran medida eliminada.
Este tipo de diseño de un microscopio, por supuesto, implica que se excita y se observa sólo un
punto a la vez, y para crear una imagen es preciso
efectuar un barrido punto-por-punto de todo el campo
de interés en el plano X-Y, y re-crear
computacionalmente la imagen con base en la
intensidad de luz medida secuencialmente en cada
localidad. Inevitablemente, la toma de una imagen es
más demorada que con microscopía convencional,
pero la ventaja es poder aislar una ‘sección óptica’
sumamente delgada (alrededor de 1 μm). El ejemplo
de la Figura 6.19 ilustra este efecto: el soma de una
neurona del mesencéfaclo fue incubado con
anticuerpos contra un tipo de canal de sodio voltaje-
Figura 6.19 dependiente, y marcados con una sustancia
fluorescente; esta proteína se ubica estrictamente en la
membrana celular. La micrografía confocal de fluorescencia muestra una rodaja óptica a través
de la mitad de la célula, en la cual solamente el borde (es decir, la membrana) fluoresce, sin
mayor contribución por parte de la membrana de las caras superior e inferior, ya que éstas,
pese a contener también la proteína-blanco, se encuentran por pocas micras fuera del plano
focal. Contrariamente a creencias populares, la resolución lateral en el plano imagen (x-y) no es
mejor que la de un microscopio convencional: el terreno donde este instrumento brilla es la
resolución en el eje z (la profundidad). Por consiguiente, especimenes de por sí muy delgados
no revelan más detalles en un microscopio confocal, comparado con uno convencional; en
cambio con especimenes de espesor más significativo (a nivel microscópico!), se puede
obtener información considerablemente más detallada. Además, se puede repetir el proceso a
varias posiciones a lo largo del eje z, con lo cual uno luego dispone de una pila de imágenes
(‘stack’) que muestran ‘rodajas’ del objeto a varias profundidades, y pueden ser manipuladas
para generar la reconstrucción tri-dimensional del objeto.

Microscopía multifotónica
En años recientes se han desarrollado otras modalidades de microscopía cuyo objetivo
principal es también la reducción de la profundidad de campo, para obtener una rodaja óptica
del espécimen, minimizando la contaminación de fluorescencia que se origine de otros planos
focales. Una de ellas, muy en auge hoy en día, se denomina microscopía multi-fotónica, y se
basa en el siguiente principio: para excitar un fluoróforo hace falta un fotón de una cierta
longitud de onda, i.e. de una cierta energía (Figura 6.20, panel superior). Sin embargo, el
mismo efecto debería poderse lograr con dos fotones de la mitad de energía cada uno (por lo
tanto, el doble de longitud de onda), siempre y cuando éstos fueran absorbidos
simultáneamente por el fluoróforo de tal manera que transferirían la misma cantidad total de
energía, necesaria para elevar un electrón a un orbital más alto (Figura 6.20, panel inferior). Por
ejemplo, si el pico de absorción del fluoróforo fuera de 380 nm, se podría excitar también con
dos fotones simultáneos de 760 nm (i.e. en el infrarrojo). Por supuesto, para lograr que una
molécula-blanco absorbiera dos fotones al mismo tiempo haría falta un flujo de fotones no

123
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

solamente supremamente intenso, sino


además concentrado en un brevísimo
instante. Algunos tipos de láser (por ejemplo,
láser de titanio-zafiro) pueden proporcionar
pulsos de luz muy intensos, cuya duración
puede ser de nanosegundos o inclusive
fracciones de picosegundos (1ps = 10-12 s).
Como tal, si la densidad de fotones es lo
suficientemente alta para propiciar que una
molécula blanco pueda absorber dos fotones,
se garantiza la simultaneidad de los dos
eventos, de tal manera que sus efectos se
sumen. Cuales ventajas se derivan de
producir excitación (y la consecuente emisión
de fluorescencia) por medio de absorción
multi-fotónica? Pensemos en enfocar el haz
de luz en un ‘punto’ diminuto, así como se
hace en microscopía confocal, usando un
objetivo de muy alta apertura numérica (ya
sabemos que en realidad ese ‘punto’ tiene
dimensiones finitas, dictadas por el límite de
difracción). En planos más arriba o más Figura 6.20
abajo, el cono de iluminación se ensancha
progresivamente, con un radio proporcional a la distancia desde el punto focal. Por lo tanto, la
densidad del flujo de fotones, siendo inversamente proporcional al área de sección transversal
del cono, disminuirá al alejarse del foco. La probabilidad de excitar moléculas en planos
diferentes al plano focal evidentemente será menor (pero no nula), y éstas contribuirían una luz
difusa, la cual, como ya se discutió, el microscopio confocal logra eliminar. Pero si se requiere
que para excitar un fluoróforo han de absorberse dos fotones, la probabilidad de una doble
absorción será el producto de las probabilidades individuales (i.e. el cuadrado) y por lo tanto
decrementará mucho más abruptamente al disminuir la densidad de del flujo de fotones,
comparado con el caso de excitación por un solo fotón. Se obtiene por lo tanto un efecto
excitatorio limitado a un plano muy delgado de la muestra, y no hace falta preocuparse tanto
por la emisión desenfocada en otros planos, ya que ésta será despreciable.
Analicemos la situación cuantitativamente, aunque sea de una manera aproximada, para
corroborar el porqué con absorción multifotónica se logra obtener
una rodaja óptica, y cuán reducida llega a ser la profundidad de
campo. Consideremos un objetivo de buen desempeño, por
ejemplo un objetivo de inmersión de aceite con apertura numérica
1.4. Si enfocáramos un rayo de luz visible de λ = 500 nm, el radio
del disco de Airy sería, en μm, 1.22×0.5/2×1.4, es decir 0.44 μm
(recordemos que r = 1.22×λ/A.N., hasta llegar al primer anillo
oscuro). Esto define la región sobre la cual converge la casi
totalidad de los fotones y tiene un área aproximada de 0.61 μm2
(A, en la Figura 6.21; podemos despreciar los anillos externos del
disco de Airy, que contribuyen una fracción marginal de luz).
Ahora calculemos el área del sección del cono de iluminación a
una distancia d, por ejemplo, de 0.5 μm con respecto al plano
focal. En primer lugar, es preciso conocer θ, el hemi-ángulo del
Figura 6.21 cono; puesto que A.N. = n sin θ, para A.N. = 1.4 y tomando el

124
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

índice de refracción del aceite de inmersión como n ≈1.55, obtenemos sin θ = 0.9, con lo cual
θ = arc sin (0.9) ≈ 64°. Si consideramos que tan grande es el radio de sección del cono en
función de la distancia al foco, d, se trata de d×tan θ, y tan 64° es ≈2. Por lo tanto a 0.5 μm del
plano focal el cono tiene un radio de 1 μm y el área de sección será A’ = π×r2 = 3.14 μm2.
Puesto que en ese plano la misma cantidad de luz viene siendo distribuida sobre un área ≈5
veces mayor que en el foco, la densidad de fotones será menor por ese mismo factor
(considerando las simplificaciones introducidas, la discrepancia real sería aún mayor). Ahora, la
probabilidad de doble absorción depende del cuadrado de la densidad de fotones, por lo tanto
será por lo menos unas 25 veces menor. Esta es la reducción de la excitación que ocurre al
sólo alejarse media micra del plano focal: efectivamente, se obtiene una rodaja óptica que
elimina dramáticamente la fluorescencia fuera de foco, sin necesidad de los dos agujeros
confocales y la delicada maquinaria mecánica requerida para desplazarlos al realizar el barrido.

Una demostración empírica del efecto se ilustra en la figura 6.22, donde se compara la
excitación de un solo fotón vs. de dos fotones del compuesto fluorescente Fluorene 3. Por el
objetivo de la izquierda se ilumina la cubeta con pulsos de luz láser de 380 rm, cerca del pico
de absorción de este fluoróforo: se
observa un cono de fuerte emisión
fluorescente cuyo vértice se encuentra
en el punto focal. Por la derecha, en
cambio, se ilumina la muestra con
pulsos de luz de 760 nm: en este caso
sólo fluoresce un diminuto punto en el
plano focal del objetivo (flecha roja), ya
que sólo donde el rayo de luz se
concentra alcanzando su densidad
máxima existe una probabilidad
significativa de que moléculas
individuales absorban simultáneamente
dos fotones y por lo tanto fluorezcan. Al
Figura 6.22
barrer el punto luminoso sobre la
muestra, se puede generar la imagen
de una rodaja óptica.
Además de la sencillez del diseño de un microscopio multi-fotónico, hay otras dos ventajas
fundamentales: (i) la densidad de energía incidente alcanza un nivel muy alto solamente en el
plano focal, por lo tanto el daño fotoquímico (tal como la producción de radicales libres tóxicos
debidos a la luz absorbida) es mucho menor respecto a un confocal tradicional. Esto hace
posible observación prolongada del espécimen mientras se preserva su integridad fisiológica.
(ii) El uso de longitudes de onda más largas, usualmente en el infrarrojo, hace que el rayo
incidente sufra menos dispersión al penetrar un medio heterogéneo, y permite por lo tanto
obtener imágenes de capas más profundas de un tejido, en lugar de tener que ceñirse a los
estratos superficiales. Por supuesto, hay también desventajas, la principal siendo el elevado
costo de una fuente de luz apropiada: se requiere un láser capaz de emitir pulsos de luz
extremadamente intensos para garantizar la coincidencia en el espacio de más de un fotón, y
además extremamente cortos (decenas de fs, i.e. 10-14 s) para que los fotones coincidan en el
tiempo y sus energías efectivamente se sumen.

Microscopía de fluorescencia con reflexión interna total (TIRF).

125
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

En una sección anterior se describió el fenómeno de reflexión total interna, que puede ocurrir
cuando un rayo que se propaga por un medio de alto índice de refracción incide oblicuamente
sobre la interfase con un medio de menor índice re refracción. Analizando desde el marco de
óptica de ondas lo que ocurre cuando el ángulo de incidencia de un rayo alcanza o excede el
nivel crítico, se ha podido concluir que
realmente la luz invade el medio de menor
índice de refracción, aunque sea muy
ligeramente: de hecho, con el ángulo crítico la
onda viaja paralela a la interfase, pero en el
otro medio, penetrándolo por una profundidad
diminuta, del orden de nanómetros. Esta
consideración llevó a desarrollar una nueva
forma de microscopia de fluorescencia (TIRF,
también conocida como microscopía de onda
evanescente), cuyo propósito es lograr
imágenes de una sección ultra-fina del
espécimen, notablemente más delgada de lo
que se puede obtener con un microscopio
confocal. Este acercamiento permite por lo
tanto discernir estructuras y procesos que
normalmente quedarían abrumados por la
presencia de fluorescencia fuera de foco. La
figura 6.23 ilustra el diseño básico del Figura 6.23
microscopio TIRF, que contempla un rayo
láser dirigido oblicuamente a un prisma acoplado a la superficie de vidrio sobre la cual se
encuentra la muestra (usualmente una célula). Debido a que (i) el índice de refracción del vidrio
es mayor que el del líquido que rodea la célula, y (ii) el ángulo de incidencia excede el ángulo
crítico, en la interfase ocurre reflexión total interna. En el proceso, sin embargo, la onda
evanescente (ver recuadro ampliado) alcanza a iluminar una capa supremamente delgada de la
muestra, y excitar un fluoróforo, el cual emite luz (flechas rojas). Por supuesto, contrariamente
al microscopio confocal, no es posible visualizar ningún objeto que se encuentre alejado de la
superficie del vidrio, pero de todas formas este acercamiento ha sido valioso para examinar en
detalle fenómenos de membrana como la exocitosis, o la adherencia de la célula al sustrato
durante su crecimiento y movimientos.

Superando el límite de difracción.


Aunque se ha presentado el disco de Airy como el límite supremo a la resolución de un
instrumento óptico, acercamientos recientes han demostrado que es posible exceder esta
barrera - especialmente en microscopia de fluorescencia - acudiendo de una manera ingeniosa
a fenómenos ópticos no-lineales, o combinando la adquisición de imágenes con técnicas
computacionales. Miremos brevemente uno de ellos, por basarse en un concepto
particularmente sencillo; sus variantes principales se conocen como como STORM (Stochastic
Optical Reconstruction Microscopy) y PALM (Photo-Activation Localization Microscopy).

126
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

La noción general subyacente es que aunque la imagen de un objeto puntual es un disco de


Airy, uno podría sustituirlo por un punto luminoso ubicado en el centróide de esta distribución
de luz, ya que su aparente extensión espacial sólo se debe a los efectos de la difracción. Con
esto, a cada punto del objeto correspondería un punto en la imagen, permitiendo así discernir
los detalles finos de la muestra. Normalmente eso no es posible porque una imagen esta
constituida por una multitud de discos de Airy sobrelapados, lo cual hace imposible ubicar el
centro de cada uno de ellos. Sin embargo, si se pudiera lograr producir fluorescencia
restringida solamente a un pequeño subconjunto de moléculas bien separadas unas de otras,
resultaría fácil reducir cada disco de Airy a su punto central. Por supuesto, luego tocaría repetir
la operación con un nuevo sub-conjunto de moléculas, y así sucesivamente hasta haber
muestreado la totalidad de los puntos relevantes del objeto. Este acercamiento se ha vuelto
posible con el desarrollo de moléculas fluorescentes foto-activables: por ejemplo, hay
moléculas que no fluorescen en su estado basal pero luego de absorber un fotón UV cambian
conformación de una manera estable, y se vuelven fluorescentes; más aun, algunas de ellas
pueden ser revertidas a su estado inicial no-fluorescente. Si se aplica un destello de luz UV tan
tenue que solamente muy pocas de las moléculas reporteras presentes en la muestra se tornan
fluorescentes, se puede luego iluminar todo el campo con el acostumbrado haz de excitación, y
sólo esas pocas moléculas emitirán luz. El resultado sería una imagen constituida por unos
pocos discos de Airy, distribuidos más o menos aleatoriamente en entre la población de
moléculas reporteras presentes. Ahora,
como uno sabe que en estas condiciones
cada mancha luminosa realmente refleja
una sola molécula fluorescente, se puede
reemplazar cada una de las manchas por
un punto luminoso arbitrariamente
pequeño. Al inactivar estas moléculas y
aplicar otro pulso muy tenue de UV,
probabilísticamente los pocos fotones UV
caerán en nuevas posiciones, activando un
subconjunto diferente de fluoróforos; éstos
se volverían fluorescentes, permitiendo
tomar una segunda imagen, la cual seria
procesada de la misma manera. La figura
6.24 muestra de una manera esquemática
este proceso re-iterativo. Replicando
Figura 6.24
muchas veces el procedimiento se obtendrá
en cada instancia una imagen formada por
un conjunto diferente de puntos; si el número de ensayos es muy grande, uno llega a muestrear
toda (o casi) la población de fluoróforos. Combinando esas imágenes se obtiene una imagen
final que muestra todas las estructuras fluorescentes del espécimen, pero formadas por puntos
más pequeños que el tamaño de un disco de Airy, es decir, una imagen cuya resolución
espacial excede el límite de difracción y puede llegar a dimensiones moleculares!

En el internet existen varios portales patrocinados por fabricantes de microscopios, en los


cuales se puede acceder a material didáctico y, especialmente, programas interactivos de
simulación del uso de microscopio. En ellos se puede visualizar el efecto de manipular cada
uno de los controles de un microscopio de luz, y constituyen un ejercicio muy útil. Los más
recomendables son:
http://www.olympusmicro.com/primer/lumbrar

127
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

http://www.microscopyu.com/

128
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

7. Imagenes Digitales
La importancia creciente de técnicas de adquisición y procesamiento de imágenes por
computador, especialmente en el área de microscopía, justifica el esfuerzo de esclarecer
aunque sea los principios subyacentes más fundamentales de este tema. Pero antes de
enfrentar las tareas directamente pertinentes a las imágenes digitales, es preciso introducir
una breve descripción del problema de empalmar una cámara al microscopio, tema que se
descuida con frecuencia y que lleva a registrar imágenes degradadas y de calidad marginal
(cuando no del todo inutilizables).
Acoplamiento microscopio-cámara. Retomando el diseño tradicional de un microscopio
compuesto, hay que recordar que el objetivo proyecta una imagen real del espécimen, y que
ésta, encontrándose más cerca del ocular que su distancia
focal, forma a su vez una imagen virtual ulteriormente
magnificada. El campo que típicamente se visualiza por el
microscopio tiene unas dimensiones, a nivel de la imagen
intermedia, del orden de 20-25 mm; si se acopla la cámara al
puerto lateral del microscopio, ésta necesitaría poder enfocar un
objeto del tamaño de una moneda ubicado a una distancia de
unos 20-30 cm, tarea que requiere un objetivo tele-macro. Si en
cambio tratáramos de utilizar el lente convencional de una
cámara (e.g. 50 mm para el formato de película de 35 mm), a
esa distancia se abarcaría un campo mucho mayor: por
consiguiente el área de interés se vería diminuta, al centro de
un gran fondo negro, un fenómeno conocido como ‘vignetting’
(Figura 7.1). Una de las consecuencias es que sólo una
pequeña porción del sensor de la cámara se utilizaría para
visualizar el espécimen, resultando en una seria degradación de
la resolución de la imagen, como se discutió anteriormente. Por
lo tanto, el uso (lamentablemente, muy común) de cámaras
convencionales para tomar directamente una imagen desde un
microscopio delata desconocimiento de los principio de óptica y
de diseño del microscopio! Lo que hace falta es un ‘ocular’
especial, llamado lente de proyección, tal que su punto focal
esté más cerca que la imagen intermedia, permitiendo así Figura 7.1
proyectarla sobre el sensor de la cámara.
Resolución espacial. El primer punto a tener en cuenta es que una imagen digital está
compuesta por un número finito de puntos. Esto resulta bien sea de haber sido adquirida por un
sensor constituido por una matriz de elementos discretos fotosensibles (e.g. el chip CCD de
una cámara digital), o bien digitizando la salida de un sensor análogo (e.g. por medio de una
tarjeta de conversión análogo-digital para TV o videos). En lo que sigue asumiremos que la
adquisición original fue digital, que es el caso más frecuente. Se acostumbra llamar “pixel”
(picture element) tanto a cada punto de la imagen misma como a cada elemento de un sensor
digital. Es importante apreciar que cada pixel sólo reporta la cantidad total de luz que ha
incidido sobre él, y no conlleva información alguna sobre la localización de los fotones que
cayeron en ese elemento. La resolución de una imagen digital depende fundamentalmente de
dos factores cuya relevancia es obvia:
- La resolución óptica del instrumento con el cual fue obtenida (e.g. el
microscopio)
- El número de pixels

129
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Menos trivial es la importancia de como éstos dos factores interactúan: ya sabemos que el
límite de resolución óptica está determinado por el tamaño del disco de Airy, y que dos puntos
del objeto podrán discriminarse solamente si sus respectivos
discos de Airy en el plano-imagen no están sobrelapados. Para
preservar esta resolución en la imagen digital es imprescindible
que en el sensor las imágenes de dos puntos apenas
separables ópticamente caigan sobre pixeles diferentes En la
Figura 7.2 se muestran las imágenes de dos puntos apenas
separables opticamente. En un caso (panel superior) la matriz
del sensor está compuesta de pixels finos, y los dos discos de
Airy estimulan pixels separados; la imagen digital mostrará la
presencia de dos puntos distintos. En el otro caso (panel
inferior) la misma imagen óptica es colectada por una matriz de
elementos más grandes, y los dos discos de Airy ocupan el
mismo pixel; la imagen digital sumará sus efectos, reportando
un solo punto. Es fácil imaginar condiciones en las cuales el
requisito de preservar la resolución óptica no se cumple, por
ejemplo cuando la magnificación de la imagen es insuficiente
para el tamaño del sensor: consideremos un microscopio
equipado con una cámara digital de alta resolución, digamos
2400x2400 pixels (5.7 Mpixels), cuyo sensor tiene una
superficie de área de 1 cm2. Si la imagen del objeto en ese
plano fuera mucho más pequeña, por ejemplo un disco de 2 mm Figura 7.2
de diámetro (como por ejemplo cuando se magnifica una célula
de 20 μm de diámetro con un objetivo de 100×), se estaría utilizando solamente el 3% de la
superficie del sensor, es decir aproximadamente ≈173 mil pixels. La imagen efectiva no podría
llamarse de ‘alta resolución’, y muchos detalles finos se perderían ya que no quedarían
registrados por pixels separados. Por lo tanto, para obviar el problema, se debería bien sea
magnificar ulteriormente la imagen por medio de un lente, antes de proyectarla sobre el sensor,
o bien tener un sensor de esa misma resolución pero
de dimensiones mucho más pequeñas.
Profundidad de pixel. Otra consideración igualmente
importante para establecer diferencias finas entre
distintas regiones de la imagen, concierne el número
de niveles de intensidad de luz codificados por cada
pixel. Si la cámara fuera de 8 bits, quiere decir que el
número binario que representa la intensidad de luz
en cada pixel admite 256 valores posibles (28). Si se
tratara de una cámara de 12 bits, serían 4096
niveles, etc. Claramente, la posibilidad de discernir
detalles mejorará al aumentar la cantidad de bits, ya
que permitirá distinguir puntos de la imagen que,
aunque ópticamente separable, tienen intensidades
parecidas. Si la profundidad de bits es grande, esas
sutiles diferencias se preservasrán; en cambio, una
codificación capaz de establecer solamente pocos
niveles de intensidad podría asignar el mismo valor
a dichos puntos. La Figura 7.3 ilustra este problema:
la imagen de la misma neurona fue tomada a la
Figura 7.3 misma resolución espacial, pero con difererente

130
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

profundidad de bits: sin lugar a duda la imagen A, codificada con ≈64 diferentes matizes de gris
entre negro y blanco, proporciona información mucho más detallada que la imagen B, en la cual
sólo se permiten 5 niveles de intensidad. Es preciso resaltar que las especificaciones
nominales no quieren decir que el desempeño teórico se realiza en la práctica. Por ejemplo,
supongamos que en una cámara de 8 bits el máximo de luz que puede recibir un pixel durante
el intervalo de exposición fuera de 20000 fotones; es decir, esa intensidad representa el valor
máximo (11111111 binario o 256 decimal), más allá del cual estaríamos en saturación. Si en la
imagen adquirida los diferentes pixels hubieran sido expuestos a un rango entre 1 y 500
fotones, esto representaría solamente unos 6 niveles (de los 256 posibles), y por lo tanto
diferencias de intensidad entre pixels menores de un 15% no podrían discernirse, porque
serían asignadas a los mismos números; sería como trabajar con una cámara de sólo 3 bits.
Para dar un ejemplo práctico, pensemos en un estudio de inmuno-fluorescencia para
determinar si hay o no una segregación de la expresión una cierta proteína-blanco en
diferentes regiones de una célula. Si efectivamente existiera un patrón de distribución espacial
diferencial pero, una vez digitizada la fluorescencia, los distintos niveles de marcaje
aparecieran comprimidos, asignándosele el mismo número a los diferentes pixels, se llegaría a
la conclusión errónea de que la expresión es uniforme. Nuevamente, la falla radica en un mal
uso del instrumento, que impide extraer la información pertinente.
Tamaño de archivo y compresión. Juntando los conceptos anteriores, podemos ahora
formarnos una idea de los requerimientos de memoria para almacenar imágenes digitales. En
primer lugar, si la imagen es monocromática, se necesita un número binario para cada pixel, el
cual consiste de cierto número de bits; multiplicando esta cantidad por el número de pixels se
obtiene el total de bits (o, dividiendo por 8, el número de bytes). Por ejemplo, una cámara de
1280×1024 a 8 bits genera imágenes que requieren ≈1.3 MBytes de memoria. Si la cámara
fuera de colores, en cada pixel habría 3 sensores distintos (para rojo, vede y azul), cada uno de
los cuales codifica separadamente la intensidad de luz en esa banda espectral; haría falta
entonces el triple de memoria para almacenar la imagen. A esto hay que agregar un
encabezamiento del archivo, el cual contiene información crítica para que el computador pueda
decodificar y mostrar la imagen en la pantalla (es decir, la resolución, modalidad, profundidad
de bits, etc.). Existen diversas estrategias para reducir el tamaño del archivo que contiene una
imagen, y se conocen como algoritmos de compresión; éstos pueden ser más o menos
efectivos según las características de cada imagen. A continuación describimos un ejemplo
muy simple, conocido como “codificación de longitud de carrera”. Consideremos una imagen
monocromática sencilla, que consiste en la
silueta de una rana, ilustrada en la Figura
7.4. En principio, su representación debería
consistir en una lista de números que
representan, secuencialmente, la intensidad
de cada pixel en cada hilera, repetido para
todas las hileras. Supongamos que sólo hay
blanco y negro en la imagen, pero los
codificamos utilizando un byte. Si hubiera 32
pixeles por hilera (una imagen de bajísima
resolución) y lo mismo por columna, se
necesitarían 32×32 = 1024 bytes para
representar dicha imagen. Pero si la misma
intensidad se repite a menudo en pixels
contiguos, existe una estrategia más
ventajosa: indicar el nivel de intensidad y
cuantas veces se repite. Por ejemplo, el la Figura 7.4

131
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

primera línea de la imagen ejemplo, todos los pixels son blancos, y digamos que el blanco esté
codificado por el numero “0”. En lugar de hacer una lista de 32 números, todos con el valor “0”,
podemos utilizar solamente dos números, uno para indicar el valor del pixel (0) y otro para
indicar cuantas veces ocurre consecutivamente en la hilera (32). Otra hilera de la imagen, en
una región donde se encuentra el sujeto, requiere información más elaborada: por ejemplo, que
hay 5 pixels blancos (valor “0), seguidos de 11 negros (valor “1”), otros 2 blancos, 4 negros, y
10 blancos (ver figura). Aún así, para esta hilera de pixels más compleja, sólo hicieron falta 10
números para representarla, en lugar de 32. En otras palabras, estamos logrando presentar la
misma información contenida en una lista completa de los valores de intensidad de todos los
pixels, utilizando sólo un número reducido de bits. Faltaría añadir alguna información ulterior
para decodificar la imagen (por ejemplo, donde termina cada línea), pero de todas maneras el
ahorro de memoria puede ser enorme. Naturalmente, entre más largas las carreras de números
repetidos, más dramática la compresión; por otra parte, si las intensidades cambiaran muy a
menudo a lo largo de la hilera (lo que en un capítulo anterior hemos denominado “altas
frecuencias espaciales”; ver sección sobre sistemas lineales), entonces la ganancia podría ser
marginal. En este ejemplo la totalidad de la información de la imagen original es retenida, pero
otros esquemas de compresión (e.g. el muy popular esquema .jpg) optan por lograr una
compresión aún mayor, sacrificando aspectos de importancia relativamente secundaria (de tal
manera que las pérdidas no sean visualmente notorias); sin embargo, para cierto tipo de
análisis cuantitativo – y en general, para uso científic0 - podría no sea aceptable descartar
información alguna, así que es preciso tener conocimiento del algoritmo a ser empleado para
cerciorarse de que se preserva toda la información contenida en la imagen.

Histograma de intensidad. Ahora consideremos un análisis global de la imagen. Una primera


descripción sencilla concierne como están distribuidos los diferentes niveles de intensidad; esto
se obtiene creando un histograma de frecuencia: simplemente se tabula, para cada uno de los
valores de intensidad permitidos, el número de pixels
en la imagen que tienen esa intensidad, y se
representa gráficamente la información en un
histograma que muestra en el eje X la escala de
valores de intensidad, y en el eje Y la frecuencia con
la cual éstos recurren. El panel de la derecha de la
Figura 7.5A ilustra un ejemplo en el cual no hay
pixels con intensidades ni menores que 50 ni
mayores que 150, y que entre 50 y 150 la distribución
es aproximadamente en forma de campana (curva
azul). Por supuesto, el área bajo la curva (la suma de
#pixels en cada intensidad) debe coincidir con el
número total de pixels.

De que nos sirve lo anterior? En primer lugar, nos


informa sobre el rango dinámico de la imagen, es
decir, cual porción del abanico de niveles permitidos
se ha utilizado. Esto, a su vez, indica el contraste de
la imagen, que refleja la diferencia entre el nivel más
oscuro y el más claro de la imagen (lo
‘desparramado’ que es el histograma en el eje
horizontal). También, el acumularse de unos conteos
muy altos en el límite superior del histograma nos
puede sugerir que una o más regiones de la imagen Figura 7.5

132
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

probablemente han alcanzado el nivel de saturación (de la misma manera, la acumulación de


valores en 0 indica saturación en el extremo opuesto). Información sobre la distribución de
intensidades es esencial para poder optimizar la exposición: si la distribución de pixels tiene
intensidades que se ciñe principalmente al rango inferior los niveles posibles, es deseable
incrementar la duración de la exposición o aumentar la iluminación; viceversa, indicios de
saturación piden acortar la exposición.

Manipulaciones de brillantez y contraste. El histograma es también una guía para procesar y


transformar la imagen misma después de la adquisición; para este fin hay que entender el uso
de funciones de transferencia de la intensidad, lo cual hace referencia simplemente a una regla
para alterar la intensidad de los pixels; esta regla es representable en una gráfica en la cual la
abscisa (x) indica los valores de intensidad, y la ordenada (y) la manera como éstos serán
modificados. Si no se aplica cambio alguno, la función de transferencia sería una simple línea
recta con una pendiente de 45˚, es decir y = x, como se ilustra en el panel abajo a la derecha
en la Figura 7.5A. Imaginemos que la imagen tuviera una apariencia demasiado oscura;
entonces quisiéramos aclararla incrementando la intensidad de todos los pixels por una cierta
cantidad fija; la función de transferencia sería simplemente la línea y = x+c donde c es el
incremento arbitrario de intensidad que se aplica a toda la imagen: se trataría de desplazar
hacia arriba toda la línea (panel gris de la Figura 7.5B). El efecto de la manipulación se puede
fácilmente apreciar en el histograma de distribución intensidades, el cual sufriría un
desplazamiento horizontal hacia la derecha. Si quisiéramos en cambio aumentar el contraste,
incrementaríamos la pendiente de la línea que representa la función de transferencia (por
supuesto, sujeto a la restricción de que al llegar al mínimo o máximo, permanecería en
saturación). Esto haría que pixels que diferían poco en intensidad en la imagen original diferirán
mucho más en la imagen transformada. Al aumentar el contraste, el histograma de
intensidades se expandirá horizontalmente, ocupando una mayor porción de la abscisa (Figura
7.5C). También podríamos enfatizar selectivamente diferencias entre pixels de baja
luminosidad, y de-enfatizar las diferencias entre niveles muy altos de intensidad (por ejemplo,
para revelar detalles de las zonas más oscuras de la imagen); viceversa, se pueden
incrementar selectivamente las diferencias entre pixels de altos niveles de luminosidad. Esta
forma de expandir selectivamente el contraste bien sea en el rango inferior o superior de
intensidades se conoce como la corrección γ (gama), se logra imponiendo una curvatura a la
función de transferencia, transformando el valor de intensidad de cada pixel (x) según la
fórmula:
y = xγ
En el histograma de
intensidades, este tipo de
transformación se
revelaría como una
expansión horizontal, pero
solamente ceñida bien sea
a la porción de la izquierda
o la de la derecha de la
distribución. Los paneles A
y B de la Figura 7.6
ilustran la aplicación de
una curvatura
negativamente acelerada
(γ<1). La foto en cuestión
muestra el embrión de un
pez cebra, la cual contiene Figura 7.6

133
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

zonas muy oscuras y prácticamente indiferenciadas (por ejemplo, el ojo, visible a la derecha); al
reducir el valor de γ de 1.0 (i.e. función de transferencia rectilínea) a 0.5, se enfatizan las
diferencias entre pixels de poca luminosidad, sin que se saturen los pixels más claros.
Viceversa, se podría exagerar selectivamente las diferencias entre los pixels de alta intensidad
utilizando una función de curvatura positiva (γ>1). La Figura 7.6C muestra una sección
histológica de retina de pez cebra adulto: aquí el problema es que no se distinguen bien las
diferencias entre pixels muy claros, pero al usar un valor de γ de 1.6 la pendiente de la función
de transferencia se incrementa de una manera más acentuada para el rango intensidades más
altas, con el resultado de que se empiezan a vislumbrar detalles en el tejido que antes
aparecían uniformemente brillantes (Figura 7.6D).

Finalmente, se puede también establecer un umbral de intensidad por debajo del cual todo
pixel quedaría reducido a cero: esto requiere que la función de transferencia sea plana con un
valor = 0 entre la intensidad mínima y un cierto nivel (el umbral), y creciera de allí en adelante;
esta manipulación puede ser útil para suprimir el ‘fondo’ de una imagen y hacer resaltar el
sujeto. Este caso es como eliminar la porción del histograma de intensidades por debajo de
cierto valor de la abscisa. En todas estas manipulaciones, un constante monitoreo del
histograma de intensidad permite evaluar que las transformaciones produzcan una distribución
deseable de intensidades, evitando la saturación.

Filtros espaciales. Así como es posible mejorar significativamente una imagen ya digitizada
alterando la intensidad de los diferentes pixels, también se puede reducir el ruido de la imagen
o, viceversa, mejorar la nitidez del enfoque; ambas modificaciones hubieran sido inconcebibles
antes del desarrollo de las imágenes digitales. En este tipo de manipulación las reglas para
modificar intensidades tienen en cuenta no solamente el valor de cada pixel individual (como
era el caso de la función de transferencia para aplicar cambios de luminosidad, de contraste, o
de gama), sino también los valores de los pixels que lo rodean. Es decir, el nuevo valor de
intensidad de cada pixel de la imagen será el resultado de alguna operación en la cual se
combinan su valor original con los valores de otros pixels en el vecindario. La manera
específica como se efectúa esta combinación determina el resultado. Tratemos de entender
cómo funciona un filtro espacial, primero utilizando como ejemplo el caso simplificado de una
‘imagen’ uni-dimensional, es decir, una simple hilera larga de pixels. Ésta se encuentra
representada en la parte
izquierda de la Figura 7.7: se
trata de una secuencia de pixels
contiguos a lo largo de la
abscisa, todos con el mismo
valor de intensidad =4 (indicado
en la ordenada), exceptuando
uno de ellos, que representa una
discontinuidad y cuyo valor es 6.
Para aplicar un filtro espacial,
construimos un conjunto de
coeficientes – conocido como el
kernel (núcleo) del filtro; en este
caso se trata de un kernel
sencillo, que consiste de 3
números, y la idea es que la
intensidad de cada pixel se
procesa multiplicando su valor Figura 7.7

134
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

por el coeficiente central del kernel, luego multiplicando las intensidades de los dos pixeles
vecinos a cada lado por el primero y el tercer coeficiente del kernel, respectivamente, y
sumando los resultados. Es como colocar el kernel sobre la imagen centrándolo encima de un
pixel particular, multiplicar las casillas correspondientes (coeficientes y datos) y sumar: estamos
sustituyendo el valor original del pixel por una combinación lineal de de los valores del
vecindario. A ese punto nos desplazamos al siguiente pixel, repetimos la operación, y así
sucesivamente; esta operación es una instancia de lo que se conoce como convolución.
Primero examinemos el efecto de un kernel homogéneo cuyos coeficientes son 1/3, 1/3, 1/3
(Panel A de la Figura 7.7). Si consideráramos el i-ésimo pixel, con intensidad xi, la operación
sería 1/3 xi-1+ 1/3 xi +1/3 xi+1 = (xi-1+ xi + xi+1)/3; en otras palabras, el valor de cada pixel se
reemplaza con el del promedio de su vecindario de 3 elementos. En los tramos antes y
después de la discontinuidad (ver flechas rojas) los valores originales de la muestra son
constantes en 4, y por lo tanto el promedio arrojará también 4. Algo diferente, sin embargo,
ocurre cerca de la discontinuidad, donde se encuentran los 3 pixeles marcados con un
asterisco: en todos esos casos el conjunto de números a ser promediados (barras rojas debajo
de la abscisa) contiene dos ‘4’ y un ‘6’, con lo cual el promedio será 4.7. El resultado de todo el
procesamiento se ilustra en el lado derecho del panel A: la discontinuidad se aplana,
distribuyéndose sobre un tramo más extenso pero con una amplitud reducida: hemos creado un
filtro que merma las transiciones abruptas, pero respeta aquellas zonas en las cuales las
intensidades se mantienen parejas, es decir, un filtro que pasa preferencialmente frecuencias
espaciales bajas.
Ahora utilizamos el mismo conjunto de datos pero procesándolo con un kernel constituido por
un coeficiente central positivo (1.5) y los dos laterales negativos (ambos -1/4). Como se ilustra
en el Panel B de la misma figura, al procesar los datos de una manera similar se obtiene algo
radicalmente diferente: el filtro no afecta la intensidad en aquellas zonas donde los pixeles son
parejos, y en cambio enfatiza la discontinuidad (exagerando su intensidad y mermando la de
los pixeles adyacentes). Aquí se ha generado un filtro que pasa preferencialmente frecuencias
espaciales altas.
Apliquemos el concepto a una imagen: en el caso de imágenes, por supuesto, se procesan
arreglos bi-dimensionales de datos y el kernel también es bi-dimensional (típicamente una
matriz cuadrada), pero la lógica es la misma. Si se cambiara cada pixel por el promedio de los
valores de una matriz de pixels (centrada en él), inevitablemente se reducirían fluctuaciones
locales de intensidad: dos pixels contiguos que difirieran
significativamente en sus respectivas intensidades quedarían
mas similares por el efecto de promediar; en cambio, pixels
contiguos que de por sí se asemejan no se verían afectados
(porque sus valores ya se parecen al promedio local). Un filtro
que rechaza selectivamente transiciones locales abruptas es
el equivalente espacial de lo que un filtro pasa-bajos hace en
el dominio temporal. En la práctica, resulta más efectivo no
llevar a cabo un simple promedio, sino un promedio
ponderado que asigne diferentes ‘pesos’ a diferentes pixels,
según su distancia del pixel central.
La Figura 7.8 muestra tres ejemplos de matrices de
coeficientes (kernel): el panel A muestra una instancia en la
cual se promedia una matriz de 3x3 (i.e. se suman los 9
valores y se divide el resultado por 9; equivalentemente, se
multiplica primero cada valor por 1/9 y se hace la suma),
Figura 7.8
mientras que el panel B ilustra el caso de un promedio

135
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

ponderado en una matriz que atribuye mas peso al pixel central (notar que la suma de los
coeficientes es siempre =1, con lo cual no se está alterando la luminosidad general de la
imagen, sólo sus características espaciales).
Los ejemplos anteriores tenderían a desenfocar una imagen porque ‘suavizan’ linderos nítidos y
bien demarcados (el precio que se paga por reducir ruido); a veces se busca en cambio
acentuar linderos para hacer resaltar el contorno de objetos en la imagen. Esto se puede lograr
con un filtro que tienda a enfatizar frecuencias espaciales altas, análogo al ejemplo uni-
dimensional de la Figura 7.7B. Si, el coeficiente central del kernel fuera positivo y los de los
alrededores negativos (Figura 7.8C), entonces todo pixel rodeado de otros de similar intensidad
se vería reducido en intensidad (porque a su valor se le restaría un cantidad similar); esto de-
enfatiza regiones de intensidad más o menos uniforme. En cambio, pixels de alta intensidad
rodeados de otros de baja intensidad (o viceversa) resaltarán su contraste. La aplicación de un
filtro de este tipo permite – según las características particulares del kernel utilizado – delinear
objetos o ‘enfocar’ una imagen borrosa; al mismo tiempo, su uso requiere cierto cuidado puesto
que si la imagen tiene de por sí un fondo poco uniforme, al aplicársele el filtro se acentuaría el
ruido de fondo. La Figura 7.9 ilustra los efectos de filtros que acentúan frecuencias espaciales
altas (i.e. ‘enfocan’), o las atenúan (‘desenfocan’), respectivamente. La imagen es una
micrografía electrónica de barrido de un fotorreceptor aislado de la retina de un molusco.

Figura 7.9

Para concluir, cabe mencionar que usualmente los kernels de filtros espaciales pueden ser
considerablemente más grandes que en los ejemplos mencionados (por ejemplo 9×9, o 23×23),
con lo cual la distribución de los coeficientes brinda infinitas posibilidades, según lo que se
pretende lograr: el abanico abarca los efectos visuales más insólitos, y es posible inclusive
generar filtros afinados para detectar un cierto patrón particular (así llamados ‘matched filters”)
y ubicar la ocurrencia o la recurrencia de algún tipo de objeto en la imagen, por ejemplo para
facilitar el conteo automático.

136
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

8. El láser
En secciones anteriores se ha mencionado varias veces el láser como fuente de iluminación
para algunas técnicas de microscopía, tales como TIRF, microscopía multifotónica, y muchos
microscopios confocales. Este instrumento es de amplia utilización en diversos contextos, no
solamente la microscopía, lo cual justifica presentar una breve introducción a sus principios de
funcionamiento. El nombre “láser” es la sigla de Light Amplification by Stimulated Emission of
Radiation (amplificación de luz por emisión estimulada de radiación). Su funcionamiento se
basa en el principio de emisión estimulada, predicho por Einstein, según el cual un átomo que
se encuentre en un estado excitado puede decaer al estado de-excitado no solamente de una
manera espontánea (por ejemplo, como ocurre en la fluorescencia) sino dicha transición puede
también ser inducida cuando incide sobre él un
fotón con la misma energía que dicho cambio.
Por supuesto, el fotón incidente no es
absorbido (de lo contrario el proceso no estaría
acompañado por una disminución de la energía
de la molécula - la de-excitación - sino un
aumento), lo cual implica que ahora se tienen
dos fotones. Además, los dos fotones tendrán
la misma frecuencia, la misma fase, y la misma
dirección de propagación. El panel A de la
Figura 8.1 ilustra el fenómeno. Los
mecanismos detallados que permiten explotar
el fenómeno de emisión estimulada para
generar la luz láser trascienden las metas des
estas notas; sin embargo, podemos resumir
brevemente el diseño básico de un láser. En
pocas palabras, una población de cierta clase
de moléculas es mantenida activamente en un Figura 8.1
estado de excitación electrónica, al ser
irradiada de una manera continua (‘bombeada’), típicamente por una fuente convencional de
luz. Al decaer un electrón a un orbital más bajo, se emite un fotón, el cual puede incidir sobre
otra molécula del medio; ésta, al encontrarse ya en el estado excitado, sufre una transición de
de-excitación, con la consiguiente emisión estimulada de luz; estos dos fotones pueden
interactuar a su vez con otras moléculas del medio que también se mantienen en estado
excitado, y el proceso se repite, con lo cual, mientras la mayoría de las moléculas se
mantengan en estado activado (‘inversión de la población’), la luz se va amplificando. Este
proceso ocurre en un compartimiento cerrado (la ‘cavidad resonante’) que tiene a un lado un
espejo y al otro un espejo parcialmente transparente, que deje pasar una fracción diminuta de
la luz (Figura 8.1B). De esta manera, los fotones quedan rebotando de un lado a otro,
incrementando la probabilidad de inducir más y más emisiones estimuladas. Además, la
longitud de la cavidad resonante es un múltiplo de media longitud de onda emitida, de tal
manera que se forman ondas estacionarias: los fotones que viajan a lo largo del el eje de la
cavidad resonante y rebotan contra los espejos ubicados en los dos extremos siempre recorren
la misma distancia y por lo tanto están en fase, con lo cual se refuerzan. En cambio, los que
rebotan contra las paredes laterales recorren un trayecto más largo y variable, y por lo tanto no
están en fase y sus ondas tienden a anularse unas con otras cuando interactúan. Por
consiguiente, la característica fundamental del láser es que la luz que emite es (i)
monocromática, es decir, se trata de ondas que tienen la misma frecuencia (puesto que se
origina de transiciones electrónicas del mismo tipo), (ii) coherente, ya que mantienen la misma

137
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

fase de oscilación, y (iii) la emisión


ocurre en un haz altamente
colimado (los rayos que emergen
son paralelos), el cual puede ser
muy fino (o enfocarse ulteriormente
en un punto extremadamente
pequeño). La Figura 8.2 ilustra las
diferencias esenciales entre la luz
emitida por una lámpara ‘blanca’,
como por ejemplo un bombillo de
tungsteno (a), la luz monocromática
que se obtendría interponiendo un
filtro en un haz de luz convencional
(b), y la luz emitida por un láser (c). Figura 8.2

La longitud de onda de la luz emitida por un láser depende de la naturaleza del material
utilizado (lo cual dictamina los posibles estados de transición electrónica), y por eso se habla de
láser de gas (por ejemplo, Helio-Neón que emite principalmente a las a longitudes de onda de
543 y 633 nm – las así llamadas ‘líneas’ de emisión), lásers de estado sólido (por ejemplo, de
rubí, que emite a 694 y 628 nm), etc. Además, diferentes lásers pueden emitir luz de una
manera continua (los así llamados ‘continuous wave’ o CW), o bien lo hacen por pulsos
discretos cuya duración puede llegar a ser extremadamente corta, hasta de fempto-segundos
(10-15 s, i.e. milésimas de trillonésimas de segundo!); esta última característica resultó
fundamental para poder implementar, entre otras, la microscopía multi-fotónica.

Aplicaciones del láser: (ii) pinzas y trampas ópticas


Todas las aplicaciones de principios ópticos que hemos considerado hasta el momento
concernían la observación de muestras o la caracterización de sus propiedades. Puede resultar
sorprendente enterarse de que la luz también se puede utilizarse para manipular
mecánicamente ciertos objetos diminutos, o para monitorear la fuerza mecánica que éstos son
capaces de ejercer. Todo ello se desprende de un principio igualmente sorprendente, según el
cual la radiación electromagnética es capaz de ejercer una presión, la así llamada presión de
radiación: ésta es una fuerza que tiene la misma dirección que la de propagación del rayo
luminoso. Lo extraño es que, vista desde el punto de vista de la teoría corpuscular, la luz está
constituida por fotones y éstos no tienen masa alguna, con lo cual uno se pregunta como
podrían ejercer una fuerza mecánica. Sin embargo, resulta que un fotón tiene momento, (lo
cual evidentemente requiere apartarse de la definición clásica P = m⋅v); se pudo llegar a esta
conclusión desde las ecuaciones de Maxwell, tomando en cuenta el efecto del componente
magnético de la onda sobre una carga que esté siendo afectada por ella, y de otras
consideraciones, en especial la teoría de la relatividad.

138
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Ahora, si al interactuar con la materia el momento de un fotón se ve alterado (bien sea debido a
absorción, que lo aniquilaría del todo, o bien a reflexión o refracción, que le alterarían la
dirección) entonces, por la tercera ley de Newton (el principio de acción y reacción) un cambio
de momento igual y opuesto, es decir una fuerza, se aplicaría a la partícula que interactuó con
el fotón (F = m⋅a = m⋅dv/dt, i.e. dP/dt). Las fuerzas en cuestión son diminutas, y requieren
intensidades de luz muy altas para manifestarse visiblemente, pero a niveles de partículas
microscópicas pueden ser lo suficientemente conspicuas para producir fenómenos
observables. La posibilidad de ‘empujar’ o levitar una partícula muy pequeña con un haz se luz
fue verificada hace mucho tiempo, pero también se documentaron fenómenos adicionales que
abrieron un horizonte de posibilidades insospechadas: una de las observaciones seminales fue
constatar que si el rayo tenía intensidad mayor en el centro que en la periferia (como ocurre en
el ‘modo’ más común de funcionamiento de una láser, el así llamado TEM00, en el cual el rayo
tiene el perfil de una campana de Gauss), entonces la partícula tendía a ubicarse
espontáneamente justo en el eje del haz, mientras que al apagar la luz inmediatamente
reanudaba su movimiento Browniano lateral. Estos
fenómenos pudieron explicarse examinando los
cambios en la dirección de diferentes rayos
refractados por la partícula (y por lo tanto los cambios
en sus respectivos momentos y la fuerza resultante
final), lo cual llevó al invento de ‘trampas ópticas’ o
‘pinzas ópticas’ (‘optical tweezers’), que sirven para
‘agarrar’ y manipular una partícula aproximadamente
esférica (o por lo menos convexa), siempre y cuando
ésta tenga un índice de refracción mayor que el del
entorno. Consideremos un rayo altamente enfocado
en un punto (un disco de Airy, en realidad) por medio
de un objetivo de microscopio de gran apertura
numérica, y miremos lo que sucedería a una partícula
de alto índice de refracción que entrara al cono de luz
(Figura 8.3A). Para simplificar el análisis, pensemos
solamente en un rayo central y dos rayos bien
periféricos (el análisis completo requeriría hacer el
balance de todos los rayos que inciden sobre la
partícula). El rayo central, al encontrar una interfase a
90 grados no alteraría su dirección sino solamente se Figura 8.3
enlentecería (por el mayor índice de refracción); el
cambio de momento implicaría una fuerza igual y
opuesta que empujaría la partícula hacia adelante; esto representa una manifestación de la
presión de radiación mencionada anteriormente. Pero los rayos periféricos también incidirían
sobre la superficie de la partícula con un ángulo cercano a la normal, y sufrirían poca refracción
(el caso límite, ilustrado en la figura, es que el centro de la partícula esférica coincidiera con el
foco, en cuyo caso no habrá ninguna refracción porque todos los ángulos de incidencia serán
de 90 grados). La presión de radiación de cada rayo se puede descomponer, por la ley del
paralelogramo, en un componente vertical que empuja la partícula, y otro horizontal hacia el eje
óptico, el cual se anula entre diferente rayos, por simetría (flechas rojas). La fuerza neta
resultante tenderá a alejar la partícula. Si ésta llega poco mas lejos del punto focal, la situación
cambia: mientras el rayo central sigue empujando, un rayo periférico encontrará la interfase con
un ángulo muy oblicuo y será fuertemente refractato, como muestra la Figura 8.3B;
nuevamente, la fuerza sobre la partícula debida a ese cambio en momento (flecha verde, igual
y opuesta al cambio de momento representado por la flecha negra) se puede descomponer en
un componente transversal y otro alineado con eje óptico pero esta vez apuntando hacia el

139
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

objetivo (flecha roja vertical). Lo mismo ocurriría con un rayo simétricamente ubicado al otro
lado de la partícula. Es decir, mientras la presión de radiación del rayo central ‘empuja’ la
partícula, los rayos periféricos ahora la ‘jalan’. En otras palabras, existirá, a lo largo del eje
óptico una distribución de fuerzas en dirección opuestas: una en la misma dirección que la luz,
y la otra que puede oponérsele; ésta última cobra más fuerza al alejarse del foco. Si en algún
punto a lo largo del eje las dos tendencias se equiparan, una partícula quedará atrapada en ese
sitio. Por consiguiente, una partícula que entrara al cono de luz se desplazaría hasta el punto
en el cual las fuerzas en direcciones opuestas se balancean, y allí permanecería en estado
estacionario; si se moviera el rayo, la partícula lo seguirá. Con esto se ha logrado, por ejemplo,
inmovilizar bacterias, o separarlas, y hasta manipular espacialmente estructuras sub-celulares
como mitocondrias. Otro campo de aplicación ha sido el estudio de la interacción de motores
moleculares, como miosinas o kinesinas, con filamentos de actina o microtúbulos inmovilizados
sobre una lámina de vidrio. Para observar la función del motor molecular, éste se acopla a una
‘bolita’ (por ejemplo, una micro-esfera de sefarosa) la cual fungirá de ‘carga’ que será
transportada por el motor al deslizarse por el filamento-sustrato, y, siendo de tamaño suficiente,
podrá visualizarse por un microscopio óptico de alta resolución. Tradicionalmente,
experimentos de este tipo han sido muy dispendiosos porque en una solución diluida la
probabilidad de interacción entre los dos partners es muy baja, y el experimentador debe
esperar interminablemente para que ocurra una asociación y empiece el movimiento. Con
pinzas ópticas, en cambio, se puede agarrar un complejo miosina/sefarosa, y físicamente
colocarlo sobre la actina para dar inicio al experimento, sin demora alguna. Otra área muy
fructífera se ha desarrollado a partir de la noción de que una pinza óptica puede oponerse al
movimiento de un objeto microscópico, por ejemplo un cilio. Si se logra anular por completo su
movimiento, quiere decir que la fuerza de la pinza óptica, la cual depende de la intensidad del
haz de luz (que está bajo el control del experimentador), es exactamente igual y opuesta a la
del sujeto; por lo tanto, es posible cuantificar ésta última (hasta en trillonésimas de Newton!).
De esta manera se ha podido determinar la fuerza ejercida por un flagelo de una bacteria, o
inclusive la de una molécula de polimerasa mientras se desplaza a lo largo de la hebra de ADN
que le sirve de templete, generando un RNA mensajero!

Aplicaciones del láser: (iii) cirugía y micro-cirugía


Otro de los usos del láser en biomedicina es para cirugía: entre los más utilizados se
encuentran el láser de CO2 cuya luz tiene una longitud de onda en el infrarrojo profundo (≈10
μm) y es absorbida por el agua contenida en los tejidos, con lo cual los vaporiza (debido al
drástico aumento de temperatura), cauterizando y limitando hemorragias; el láser de Argon
emite luz a longitudes de onda visible (e.g. 488 nm y 514 nm), que es fuertemente absorbida
por la hemoglobina, y también cauteriza el tejido produciendo rápida coagulación de las
sangre. Aplicaciones similares se han desarrollado a escalas celulares, en las cuales un rayo
láser altamente enfocado en un punto diminuto por medio del objetivo de un microscopio se
utiliza para irradiar una célula específica en un tejido, destruyéndola. En algunas instancias, se
prefiere micro-inyectar primero a la célula-blanco con algún colorante que absorba fuertemente
en una banda específica del espectro de luz, y luego irradiarla con un láser de la longitud de
onda apropiada para ese colorante, con lo cual se maximiza la selectividad y la efectividad de
la ablación óptica, evitando daños a tejidos limítrofes. Acercamientos de este tipo han
permitido, entre otras cosas, establecer el rol de células específicas en un circuito neuronal.

140
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

9. Óptica Fisiológica
En esta sección aplicaremos los principios de la óptica al análisis del ojo: la formación de
imágenes, la resolución, y, en algunos casos, la presencia de mecanismos básicos para
controlar el enfoque y la cantidad de luz que reciben las células fotosensibles. También se
elucidarán las bases de la visión cromática, i.e. la capacidad de percibir colores. Finalmente, se
examinarán los mecanismos que permiten a diversos organismos responder a la polarización
de la luz, capacidad de la cual los humanos carecemos por completo – lo cual recalca que la
información visual que diferentes sujetos logran extraer respecto al entorno difiere fuertemente.
El ojo de los vertebrados
El sistema visual de la gran mayoría de los organismos utiliza un aparato óptico refractivo para
formar una imagen del mundo externo (sólo se
conocen pocos ojos que utilicen un espejo). El
propósito es enfocar la luz de cada punto de un plano
focal del mundo externo sobre el sensor, la retina, que
contiene las células fotosensibles. Se conocen dos
diseños fundamentales de ojo en la naturaleza. Uno es
el así llamado ojo simple por estar constituido por un
solo sistema dióptrico para enfocar la luz; ojos simples
se encuentran en todos los vertebrados, y en varios
invertebrados como los cefalópodos (e.g. calamares y
pulpos). Otro diseño, llamado ojo compuesto es común
entre la mayoría de los invertebrados, y consiste en
una matriz de elementos ópticos independientes, cada
uno con su propio aparato para enfocar la luz. A su Figura 9.1
vez, los ojos compuestos admiten variantes, cuyas
características difieren de una manera fundamental. En esta discusión nos concentraremos en
el ojo simple de los vertebrados, en el cual el sensor de luz está constituido por un mosaico de
células altamente especializadas, conocidas como conos y bastones; los bastones son más
sensibles y se distribuyen en la mayoría de la retina periférica, mientras que los conos se
concentran el la pequeña región central conocida como la fóvea (Figura 9.1; el diagrama
representa los conos y bastones con su segmento externo foto-sensible apuntando hacia la
dirección de llegada de la luz: en realidad en los vertebrados la retina es invertida, y la luz ha
de atravesar todas las capas de la retina hasta llegar a los fotorreceptores, los cuales apuntan
hacia afuera!).
Dos elementos ópticos cumplen la función de proyectar la imagen de los objetos del espacio
visual sobre la retina: (i) la córnea, que forma la primera interfase, i.e. la superficie externa de la
porción frontal del ojo (ii) el lente o cristalino, ubicado más internamente. A pesar de la
curvatura y espesor del cristalino, en todos los animales terrestres es la córnea que desempeña
el rol principal como elemento refractivo, debido al cambio mucho más abrupto de índice de
refracción en la interfase aire-córnea, comparado con la interfase entre los fluídos intra-
oculares (‘humor acuoso’) y el cristalino: del poder total de ≈59 dioptrías del ojo humano, ≈43
se deben a la córnea. Por supuesto, si el sujeto se sumerge en agua, el índice de refracción
cambia menos en la interfase con la córnea, y el poder dióptrico de ésta última disminuye
drásticamente, resultando insuficiente para enfocar una imagen (los pájaros pescadores
poseen un parpado especializado que es transparente y refractivo, y baja cuando el animal se
zambulle, permitiéndole mantener la capacidad de enfocar debajo del agua).

141
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Acomodación
En el ojo humano, la distancia entre el complejo córnea-lente (más específicamente, el punto
nodal) y la retina es fija (aproximadamente 17 mm), pero los objetos en el mundo externo se
encuentran a diferentes distancias. Para lograr
enfocarlos, el ojo cambia el poder dióptrico del lente:
para enfocar objetos lejanos, hace falta menos poder
refractivo, y el lente es mantenido con una menor
curvatura (i.e. mayor radio de curvatura) por la tensión
pasiva ejercida por fibras pegadas radialmente desde
la región ecuatorial del lente, que lo estiran (Figura
9.2A). Sin embargo, para enfocar objetos cercanos se
contrae un anillo muscular alrededor del lente
(músculo ciliar), el cual reduce la tensión de las fibras,
y permite que el lente se relaje, asumiendo, por
elasticidad, una forma más esférica (mayor
curvatura→mayor poder dióptrico; Figura 9.2B). Estos
ajustes en el poder dióptrico del ojo se conocen como
el proceso de acomodación. Así que el lente, cuya
contribución al poder dióptrico total del ojo es Figura 9.2
relativamente modesta, tiene la función esencial de
aportar los ajustes que hacen falta para poder enfocar
objetos cercanos o lejanos. La elasticidad del lente se pierde con la edad, reduciendo por lo
tanto la capacidad de enfocar objetos cercanos. La transparencia del lente también se puede
deteriorar (cataratas) lo cual puede requerir una intervención quirúrgica. Las consecuencias de
las técnicas inicialmente empleadas, que simplemente contemplaban la remoción del lente,
eran (i) reducción del poder dióptrico del ojo, y por lo tanto necesidad de compensarlo con
anteojos (ii) pérdida de la acomodación (iii) sensibilidad a luz ultravioleta, ya que estos rayos
normalmente son filtrados por el lente, que les impide llegar a la retina. Hoy en día, el cristalino
se remplaza con un lente artificial, para obviar en gran medida estas deficiencias.
Cabe aclarar que éste no es el único mecanismo por medio del cual se puede lograr
acomodación. Los ojos de muchos peces utilizan en cambio la estrategia de variar la posición
del cristalino: músculos adheridos al lente lo desplazan, en lugar de alterar su curvatura,
acercándolo o alejándolo de la retina. El efecto es el mismo: mantener la proyección del objeto
enfocada sobre la matriz retinal, compensando por la mayor o menor distancia a la cual se
encuentre el objeto.

Resolución óptica del ojo


Limitaciones debidas al sistema dióptrico. Para examinar la capacidad del ojo de discernir
detalles finos es conveniente utilizar las dimensiones angulares de un objeto, en lugar de las
dimensiones lineares (es decir, el ángulo que subtiende el
objeto que uno mira), ya que en última instancia lo que
interesa no es el tamaño absoluto del objeto, sino que tan
grande será su imagen proyectada en la retina: por ejemplo,
un objeto grande pero muy lejano podría tener una imagen
retinal tan pequeña o más que la de un objeto más pequeño
pero mucho más cercano al observador (Figura 9.3). La
unidad de medida angular es el grado (indicado por el símbolo
° que sigue a un número); es a menudo necesario referirse a
fracciones pequeñas de un grado, y se utiliza el minuto de
arco (‘), que representa 1/60 de grado, y el segundo de arco Figura 9.3

142
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

(“) que a su vez representa 1/60 de minuto (es decir, 1/3600 de grado). Para convertir
distancias y tamaños a grados se hace uso de identidades básicas de trigonometría, que se
pueden fácilmente aproximar para ángulos pequeños (como suele ser el caso cuando se
examina la resolución del ojo). Por ejemplo, un objeto de 5 cm de tamaño ubicado a 2 m en
frente del ojo tendría un tamaño angular de aproximadamente 5/200 = 0.025 radianes, es decir
1.43° (1 radian = 57.3°); además, considerando que la distancia entre el centro del complejo
córnea/lente y la retina es de 17 mm, podemos calcular que proyectaría una imagen en la retina
de ≈0.025*17 mm = 0.425 mm. En cuanto a propiedades estrictamente ópticas (asumiendo que
el ojo no presente defectos de visión), el poder de resolución del ojo está determinado por (i) su
apertura numérica (dependiente principalmente de la pupila) (ii) aberración esférica, y (iii)
aberración cromática. Estas resultan en que un objeto puntual formaría como imagen un disco
(el disco de Airy, ulteriormente deteriorado por las aberraciones), y para poder percibir puntos
como distintos, su separación angular deberá ser mayor que las dimensiones del disco de Airy.

Limitaciones ópticas debidas al mosaico retinal. La detección de luz por la retina ocurre por la
estimulación de células fotosensibles individuales, los conos y bastones. Por lo tanto, para
estimar la capacidad de resolución del ojo no es suficiente considerar las propiedades ópticas
de la córnea, el cristalino y la pupila (que establecen su límite de difracción), sino también el
mosaico retinal. Al igual que una cámara digital, una imagen no tendrá buena resolución si el
sensor posee un número limitado de ‘pixels’, ya que si las proyecciones de dos puntos del
espacio visual caen sobre el mismo pixel, su detección individual es imposible, porque sus
respectivas imágenes no activan diferentes elementos fotosensibles. Por lo tanto en el ojo la
utilización plena de las capacidades de resolución de la córnea y el lente sólo se realizarán si el
diámetro de los fotorreceptores es comparable al disco de Airy, permitiendo que la imagen de
dos puntos resueltos ópticamente caiga sobre
fotorreceptores distintos (más precisamente, deberían
estimular dos fotorreceptores separados, que tuvieran de
por medio otro fotorreceptor, para que hubiera dos sitios
no contiguos de estimulación). En el ojo el disco de Airy
varía según el grado de apertura de la pupila (que puede
contraerse o dilatarse entre ≈1.5 y 6 mm, lo cual afecta la
apertura numérica; Figura 9.4). Desde el punto de vista
puramente óptico, la separación de dos puntos en el
espacio visual para que no se superpongan sus
respectivos discos de Airy sería del orden de 2.3 a 0.6
minutos de arco. Teniendo en cuenta que el diámetro
aproximado de un fotorreceptor en la fóvea (la zona
central de la retina donde se alcanza la máxima Figura 9.4
resolución) es de unos 30 segundos de arco (unos 2.4 μm
de diámetro), quiere decir que aún a la máxima dilatación pupilar bajo condiciones normales
(i.e. sin uso de fármacos como la atropina, comúnmente utilizada en exámenes oftalmológicos),
la matriz retinal es suficientemente fina para no deteriorar la capacidad de resolución del ojo: la
evolución ha optimizado las dimensiones de los elementos fotosensibles para que fueran
equiparables al límite de difracción.

A este propósito es preciso aclarar algo importante que permite al ojo mantener buena
sensibilidad y buena resolución espacial; estas consideraciones nos brindan la oportunidad de
ver un par de leyes básicas de óptica en acción en un sistema biológico. En primera instancia,
se debe optimizar la captura de fotones. La ley de Beer-Lambert nos dice que la probabilidad
de que éstos pasen sin ser absorbidos decae exponencialmente con la longitud de la
trayectoria por el medio absorbente, y que la constante espacial de dicha función exponencial

143
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

depende de la concentración de las moléculas que absorben luz y de su coeficiente de


extinción. La naturaleza optimiza la situación (i) utilizando moléculas cuyo coeficiente de
extinción es muy alto (≈40,000, como se ha mencionado previamente), (ii) expresándolas
masivamente (del orden de 100 millones de ellas por célula), y (iii) haciendo que el segmento
foto-sensible sea una estructura delgada y alargada, de tal manera que el recorrido de los
fotones sea largo, favoreciendo su absorción. Este último punto, sin embargo, conlleva un
problema: el aparato dióptrico enfoca la imagen de los objetos en un cierto plano, y si la
estructura foto-sensible forma una capa espesa, la luz
no puede estar enfocada sino a un nivel restringido del
fotorreceptor; como tal, se esperaría que por fuera de
ese plano focal la luz se ‘desparramaría’, invadiendo
otros fotorreceptores y perdiendo resolución. Sin
embargo el índice de refracción de los fotorreceptores
es mayor que el de los intersticios entre ellos. Por lo
tanto, si se enfoca la luz sobre el extremo del
segmento fotosensible, éste guía la luz funcionando
como una fibra óptica (por el principio de reflexión total
interna), evitando que llegue a fotorreceptores vecinos.
De esta manera se preserva la focalidad. La Figura 9.5
ilustra el proceso: el cono de luz se enfoca al entrar a
la célula (en conos y bastones de vertebrados la
dirección de entrada sería por el soma, como se ha
mencionado) , y rebota internamente manteniéndose
en su interior en lugar de escapar por los lados y llegar Figura 9.5
a estimular fotorreceptores vecinos (líneas azules).

Defectos de visión
En muchos individuos el poder dióptrico de la cornea y el cristalino puede ser inadecuado para
formar una imagen perfectamente enfocada sobre la capa de los fotorreceptores en la retina.
Por ejemplo, la imagen de un punto podría formarse a una distancia demasiado corta detrás del
lente, i.e. adelante de la retina. En este caso los rayos se cruzarían y volverían a divergir, y al
llegar a la retina proyectarían un disco difuso. Este problema, que se denomina miopía (Figura
9.6A), implica que aún cuando el músculo ciliar está relajado para mirar objetos lejanos
(mínima curvatura del lente), la refracción es excesiva; se puede corregir interponiendo,
adelante del ojo, un lente
divergente cuyo propósito es
contrarrestar el excesivo poder
dióptrico del ojo (Figura 9.6B).
Alternativamente, puede suceder
que el poder dióptrico del ojo es
insuficiente, especialmente cuando
se intenta enfocar un objeto
cercano, y los rayos que emanan
de un punto en el espacio visual no
convergen lo suficientemente
rápido y por lo tanto llegan a la
retina cuando todavía están
distribuidos en un disco. Este
problema se denomina
hipermetropía y se corrige Figura 9.6

144
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

añadiendo un lente convergente que aumente el poder refractivo (Figura 9.6C y D). Notar que
en ambos casos los lentes de corrección se colocan en proximidad de la córnea, a una
distancia menor que su distancia focal. Como tal, no alcanzan a formar una imagen real al
frente del ojo (la cual sería invertida!); simplemente, su poder refractivo se añade al del ojo,
modificándolo para corregir el punto de enfoque sobre la retina (cuando se combinan lentes de
esta manera, su poder dióptrico total es simplemente la suma de las dioptrías de cada uno de
los elementos).

En la sección sobre lentes se habló de del problema de la aberración esférica, que hace que
los rayos paraxiales y periféricos que inciden sobre un lente no se enfocan a la misma
distancia. Se mencionó una corrección poco satisfactoria: restringir la luz a la zona central del
lente, lo cual inevitablemente reduce la luminosidad y la apertura numérica, y por ende la
resolución. Por supuesto, la forma ideal de evitar la aberración esférica es impartiendo a la
superficie del lente la forma correcta de curvatura - que es muy compleja - logrando que,
obedeciendo a la ley de Snell, todos los rayos se encuentren en un mismo punto. Desde el
punto de vista de la fabricación de lentes, eso comporta un reto significativamente mayor que
producir un lente esférico, pero es factible: lentes exentos de esta falencia se conocen como
‘lentes asféricos’ (que inevitablemente son más costosos). Pero es lícito preguntarse cómo en
la naturaleza se ha enfrentado este problema, ya que el buen desempeño del ojo debe ser
sujeto a considerable presión evolutiva. Durante el desarrollo del lente es difícil pensar en un
plan genético capaz de formar con precisión una estructura cuya curvatura sea tan compleja.
Es más, una somera revisión de la morfología de distintos lentes en una amplia gama de
animales revela que la forma esférica es prácticamente ubicua; esto es fácil de esperar, ya que
un grupo de células proliferando en suspensión tendería naturalmente a asumir una forma
redonda. Quiere decir que la evolución ‘ha renunciado’ a resolver el problema? La respuesta es
negativa: al examinar el cristalino de diferentes
peces, por ejemplo, se ha encontrado que el lente,
aún siendo esférico, es sorprendentemente carente
de aberración esférica. Como lo logra? Resulta que
el índice de refracción disminuye progresivamente
del centro hacia la periferia Ahora los rayos más
excéntricos, que son los que encuentran un ángulo
de incidencia excesivo, transitan mayormente por
capas de menor índice de refracción (ver Figura 9.7),
con lo cual se refractan menos, compensando la
incidencia excesivamente oblicua. La ontogénesis de
un cristalino con esas características se puede lograr
fácilmente, simplemente mermando gradualmente la Figura 9.7
densidad del citoplasma a medida que nuevas
células se van agregando en la periferia. A su vez, eso simplemente requiere reducir
progresivamente la expresión de proteínas solubles en las células de las capas más periféricas
del lente. Los humanos han copiado este diseño, produciendo lo que se conoce como ‘lentes
indexados’ o ‘de gradiente’, los cuales pueden resultar de más fácil fabricación que los lentes
asféricos.

145
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Procesamiento espacial. En la sección sobre procesamiento de imágenes digitales se introdujo


el concepto de filtros espaciales que operan sobre una imagen y permiten enfatizar o extraer
cierta información. Puede resultar sorprendente que la retina de la mayoría de los organismos
animales (incluyendo el hombre) no se limita a funcionar como un simple sensor encargado de
recibir la imagen y transmitirla fielmente al cerebro, sino además aplica, a través de circuitos
neuronales locales, justamente ese tipo de computación; en particular, la imagen es alterada
para recalcar discontinuidades, con el fin de delinear el contorno de los objetos y facilitar su
identificación. Se trata por lo tanto de un filtro que enfatiza frecuencias espaciales altas. En la
sección de imágenes digitales este efecto se había logrado procesando aritméticamente la
intensidad de cada pixel mediante un kernel que consistía de un coeficiente central positivo,
rodeado de coeficientes negativos. Esta
funcionalidad se puede implementar en la
retina haciendo que el mensaje recibido por
cada fotorreceptor (i.e. la luz) no solamente
sea transmitido hacia estructuras centrales,
sino además pueda ejercer una influencia
opuesta sobre los elementos vecinos.
Consideremos muy esquemáticamente un
caso en el cual cada fotorreceptor fuera
‘excitado’ al ser iluminado, y que como
consecuencia también pudiera inhibir a sus
vecinos inmediatos, como se ilustra en la
Figura 9.8. La actividad neta de cada
elemento será por lo tanto el balance entre
la estimulación recibida y las influencias
inhibitorias de los vecinos (que dependen a
su vez de sus respectivos niveles de Figura 9.8
actividad). Supongamos que se aplicara
una iluminación de intensidad uniforme sobre una cierta región (digamos, 10 unidades),
mientras que en la región vecina disminuyera a 2; el perfil espacial del estímulo tendría por lo
tanto forma de escalón. Para calcular la información resultante que será transmitida hacia el
cerebro hay que computar la excitación y la inhibición en cada elemento de la matriz del
sensor. En las regiones uniformemente iluminadas esta actividad es similar entre diferentes
elementos: donde la luz es intensa, cada fotorreceptor recibe 10 unidades de excitación, a la
cual hay que restar 4 de inhibición (2 provenientes de cada uno de sus vecinos inmediatos), y
el resultado neto es 10-2-2= 6. Donde la luz es tenue la excitación es sólo de 2 unidades, pero
además la inhibición es también menor (0.4 unidades de cada lado), ya que proviene de
vecinos menos activos: el resultado es 2-0.4-0.4=1.2. Ahora miremos lo que sucede cerca del
sitio de transición de alta a baja intensidad: el elemento a la izquierda del lindero recibe mucha
estimulación (10) pero modesta inhibición porque mientras que la proviene de un vecino (el que
está fuertemente estimulado) es alta (-2), la que proviene del otro, que está débilmente
activado, es poca (-0.4). Como consecuencia, este elemento manifestará una actividad neta
supra-normal (7.6). Lo opuesto ocurre con el elemento inmediatamente al otro lado del lindero,

146
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

porque recibe poca estimulación (2), pero la inhibición proveniente de uno de los dos lados es
fuerte; su actividad neta resultante será particularmente baja, (0). El perfil espacial de la
actividad, por consiguiente, no sigue el escalón del estímulo físico, sino muestra una transición
exagerada: el procesamiento enfatiza todo cambio abrupto y por lo tanto actúa como filtro pasa-
altos. La implementación de este arreglo puede variar, por ejemplo, involucrando elementos
adicionales que funcionan como inter-neuronas inhibitorias (como ocurre en realidad en la
retina de los vertebrados), pero la lógica general es la misma en todos los casos: la distribución
espacial de los efectos de la estimulación de cada elemento representa el kernel del filtro. Una
forma de representar este concepto es considerando la actividad de un elemento específico de
la matriz y determinar el mapa funcional que se obtiene al estimular puntualmente distintos
sitios del sensor: en la instancia que se describió habría una región central excitatoria (cuando
el estímulo incide directamente sobre el sensor) rodeada de un anillo inhibitorio (cuando el
estímulo incide sobre elementos conectados a él, y que al ser estimulados son capaces de
antagonizarlo). Esto se llamaría el campo receptivo del elemento en cuestión; distintos
elementos tendrían un campo receptivo similar, pero obviamente desplazado en el espacio. La
distribución de la actividad de los diferentes elementos de la matriz sería entonces el resultado
de efectuar la operación que previamente hemos
llamado convolución entre la función que describe el
patrón del estímulo y la función que describe el campo
receptivo (el cual cumple un papel totalmente análogo
al kernel de un filtro espacial): se considera un campo
receptivo particular, se multiplica su valor en cada
punto por la intensidad del estímulo que incide allí, se
suman todos los productos obtenidos, luego se
considera el siguiente campo receptivo, se repite la
operación, etc. Las consecuencias de este arreglo es
que al presentar a un observador un patrón con
discontinuidades, éste las percibirá de una forma
alterada; el fenómeno fue estudiado por el renombrado
físico Ernst Mach, y se conoce como las bandas de
Mach. La Figura 9.9 muestra un típico patrón que
Figura 9.9 suele evocar este tipo de sensación: los ‘cruces’ entre
los cuadrados negros se tienden a percibir menos
claros (y rápidamente fluctuantes de una manera dinámica) que los ‘corredores’. Esto es
comprensible si se tiene en cuenta que para los elementos cuyo campo receptivo está centrado
en un cruce (ver ejemplo en el centro de la figura) hay estimulación de la región excitatoria pero
también se ilumina buena parte de la región inhibitoria (desde 4 lados). Su actividad neta
tenderá por lo tanto a ser menor que la de elementos cuyo campo receptivo se encuentre
centrado en un ‘corredor’ (ver otro ejemplo), y que recibiría la misma estimulación en la porción
excitatoria, pero menos en la zona inhibitoria.

147
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Visión cromática Otro tema fundamental relacionado con la función visual concierne los
mecanismos que permiten discernir colores, los cuales consideraremos brevemente a
continuación. El color percibido de una luz está relacionado con su longitud de onda. Sin
embargo los dos términos no son equivalentes: la longitud de onda es un parámetro físico de
la radiación electromagnética, el color es un fenómeno perceptual complejo, que resulta del
procesamiento de la luz por el sistema nervioso. El primer concepto a esclarecer es que las
células fotosensibles son incapaces de discernir la longitud de onda per se: ya sabemos que
para detectar un fotón éste debe ser absorbido por alguna molécula, a la cual cede su energía.
En la molécula receptora esta energía se traduce en alteraciones de su vibración, rotación,
ocupación de orbitales por los electrones, etc. En el caso de los fotopigmentos, como se ha
mencionado previamente, se trata de la isomerización del cromóforo, lo cual da inicio a una
cascada de señalización. Pero la longitud de la onda luminosa incidente no queda registrada.
Por lo tanto, en un fotorreceptor el tamaño de la respuesta producida por un estimulo luminoso
es solamente función del numero de rodopsinas
isomerizadas, lo que se conoce como el Principio de
Rushton. Como extraer entonces información sobre las
propiedades cromáticas de la luz? La estrategia se
basa en el hecho de que las moléculas tienden a
absorber luz selectivamente, según la longitud de onda
(es decir, el hecho de que en general el coeficiente de
extinción, ε, depende de λ). Supongamos que todos
los fotorreceptores contuvieran la misma clase de
rodopsina, con el mismo espectro de absorción,
representado por el panel central de la Figura 9.10.
Uno podría pensar que el solo hecho de que el
fotopigmento absorbe algunas longitudes de onda
mejor que otras de por si confiere a la célula
capacidades de discriminación cromática: por ejemplo,
supongamos que fotones de 500 nm (lo que los
humanos llamamos ‘verde’) tuvieran dos veces mayor
probabilidad ser absorbidos que fotones de 600 nm (lo Figura 9.10
que nosotros llamamos ‘rojo’). Si un destello de luz
contuviera un cierto numero de fotones (representado
por la longitud de las flechas en el panel superior de la
Figura 9.10), habría entonces dos veces más rodopsinas
isomerizadas si la luz fuera verde que si fuera roja, y
por lo tanto la respuesta eléctrica de la célula seria
mayor con luz verde (panel inferior). Uno estaría tentado
de concluir que la célula discrimina el verde del rojo. Sin
embargo, eso es una falacia: si comparáramos la misma
luz verde con una luz roja dos veces más intensa (el
doble de fotones), los dos destellos resultarían en el
mismo número de isomerizaciones, ya que para la luz
roja la menor probabilidad de absorción será
compensada por la mayor abundancia fotones (Figura

Figura 9.11

148
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

9.11). Por el principio de Rushton, las dos respuestas fisiológicas serán entonces iguales, y
ciertamente uno no atribuiría la capacidad de discernir colores a un organismo que confundiera
una luz verde tenue con una roja brillante! Podemos superar esta dificultad si en lugar de un
solo tipo de fotopigmento tuviéramos dos o mas, segregados en células distintas. Por ejemplo,
supongamos que unas células contuvieran el pigmento
que absorbe preferencialmente a 500 nm (llamémoslas
células ‘V’) y otras un pigmento que absorbiera
preferencialmente a 600 nm (células ‘R’; Figura 9.12).
En este caso, una luz verde estimularía fuertemente las
células V y débilmente las células R. La luz roja haría lo
contrario. Por consiguiente el patrón de activación de las
dos poblaciones de células seria diferente con las dos
longitudes de onda; al variar las intensidades,
cambiarían las amplitudes de las respuestas, por cierto,
pero no se alteraría esa respuesta diferencial: una luz de
500 nm, cualquiera que fuera su intensidad, siempre
activaría mas fuertemente células V que células R, y
viceversa con una luz de 600 nm. Si alguna estructura
del sistema nervioso pudiera comparar el nivel de
actividad proveniente de las dos poblaciones de células,
podría determinar que los dos estímulos son Figura 9.12
cromáticamente diferentes, y seria entonces lícito
concluir que el sujeto distingue rojo de verde. Aun así, el sistema de discriminación cromática
que hemos creado está lejos de ser perfecto, y un sujeto fácilmente confundiría otros estímulos
que desde el punto de vista físico son muy diferentes. Por ejemplo, podríamos utilizar una luz
de 550 nm (amarilla), la cual seria absorbida similarmente tanto por células V como por células
R (aunque no de una manera óptima para ninguno de los
dos fotopigmentos), y las dos clases de fotorreceptores
generarían por lo tanto respuestas similares (Figura 9.13).
Ahora podríamos presentar otro estimulo luminoso,
compuesto por la superposición de una luz que sólo fuera
absorbida por las células V, y otra que sólo fuera
absorbida por las células R. Esto podría lograrse con un
bombillo azul prendido simultáneamente con otro rojo
profundo. El
resultado seria,
de nuevo, una
igual activación
de las dos clases
de células: el
sujeto percibiría
Figura 9.13 lo mismo que la
luz amarilla!
(Figura 9.14). Es decir, con dos poblaciones de
fotorreceptores ciertamente distinguiríamos luces
monocromáticas, pero podríamos ser incapaces de
discriminar algunas mezclas de dos longitudes de
onda. Si en lugar de dos tuviéramos tres clases de
células, ese problema seria resuelto, pero mezclas de
tres o más colores todavía nos confundirían. Es decir, Figura 9.14
el hecho de que realmente no medimos la longitud de

149
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

onda nos obliga a tratar de inferir las características cromáticas de un estimulo determinando
sus efectos sobre diferentes clases de fotorreceptores, cada uno con una cierta sensibilidad
preferencial en cuanto a longitud de onda.
Entre mas clases de células con fotopigmentos diferentes, mas refinados nuestros juicios, pero
siempre estaremos sujetos a la posibilidad de confundir mezclas complejas de longitudes de
onda. Es preciso recalcar que la mayoría de
estímulos luminosos en nuestro entorno están
constituidos por mezclas de longitudes de onda: la
luz monocromática es realmente una excepción. El
sistema visual humano cromático consiste de tres
tipos de fotorreceptores, preferencialmente sensibles
a rojo, verde y azul, respectivamente (Figura 9.15), y
nos permite ver y discriminar cierta gama de colores;
pero hay muchos que percibimos como iguales, sin
serlo.
Organismos con más clases de fotorreceptores
Figura 9.15
selectivos a diferentes longitudes de onda (desde
pájaros a crustáceos) tienen capacidades de visión cromática superiores a las nuestras, y
distinguen colores que a nuestros ojos son idénticos. Notar que los sensores con diferentes
características cromáticas se pueden generar de distintas maneras. Una es la presencia de
fotopigmentos que varíen en su absorción espectral, como el caso que hemos examinado (y
que es representativo, entre otros, de la visión cromática en los mamíferos). Pero el mismo
resultado se puede obtener con sensores de idénticas características, ante los cuales se
interpongan filtros cromáticos (i.e. filtros que dejen pasar selectivamente diferentes longitudes
de onda). Al acto práctico, la cantidad de luz que llegaría a un sensor o a otro dependerá de su
longitud de onda y de la transmitancia del filtro en esa banda. Las aves implementan visión
cromática de esta manera, con ‘gotas’ pigmentadas de diferentes maneras, las cuales se
interponen en el camino de la luz, antes de que llegue al fotopigmento.

150
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Habiendo establecido que la percepción del color es


un reflejo del grado relativo de activación de
diferentes poblaciones de fotorreceptores, es
posible definir lo que se llama el ‘espacio
cromático’, un dominio que incluye todos los
posibles colores que un individuo puede percibir.
Para construirlo, consideremos el caso más sencillo
posible, el de un organismo que posee solamente
dos clases de fotorreceptores con diferente
sensibilidad espectral para su visión cromática (que
llamaremos ‘X’ y ‘Y’), como ilustra la Figura 9.16A.
Pensemos en los efectos que ejercería un estímulo
luminoso monocromático cuya intensidad (definida
como número de fotones en un destello) fuera
constante, pero cuya longitud de onda se pudiera
variar de una manera continua. Las líneas
punteadas indican los estímulos de las longitudes
de onda seleccionadas para llevar a cabo una serie
de mediciones; para cada estímulo, el valor de la
ordenada donde la línea vertical intercepta las dos
curvas establece el nivel de activación producido en Figura 9.16
los fotorreceptores X y Y, respectivamente. En el
panel B de la misma figura se grafica el grado de activación de los dos tipos de fotorreceptores
ante la aplicación de los diferentes estímulos: para cada luz, el valor a lo largo de la abscisa
indica la magnitud de la respuesta de los fotorreceptores X, la ordenada la de los
fotorreceptores Y, con lo cual la respuesta queda definida por la posición de un punto en el
plano x-y. Si consideremos el conjunto seleccionado de luces monocromáticas, observamos
que la de 420 nm activa solamente fotorreceptores X, y por lo tanto representaremos sus
efectos como un punto ubicado sobre la abscisa. Pero a medida que λ incrementa, habrá no
solamente un aumento en la respuesta de X (al acercarnos a su pico de respuesta), sino
también progresivamente más activación de fotorreceptores Y, y por lo tanto crecerá la
coordenada vertical del punto correspondiente en la gráfica del panel B; luego, la coordenada X
volverá a bajar, cuando se pase su pico de respuesta máxima, mientras la Y sigue creciendo.
Barriendo las diferentes longitudes de onda, se dibuja la curva ilustrada en el diagrama.
Ahora consideremos el caso más general de luces que no sean monocromáticas; un estímulo
luminoso puede consistir en una onda electromagnética compleja, pero sabemos que en última
instancia se puede descomponer en la suma de componentes sinusoidales simples (de nuevo,
el teorema de Fourier). Pensemos primero en la situación simple que contempla solamente dos
componentes de la misma intensidad, aplicados a un organismo dicromático; puesto que cada
uno de ellos es un color monocromático, sus respectivas respuestas evocadas en las dos
clases de fotorreceptores están representadas como dos puntos particulares a lo largo de una
curva análoga a la de la Figura 9.16B. Mientras las intensidades sean modestas, lejos del nivel
de saturación, el efecto conjunto será entonces una combinación lineal de las dos respuestas
individuales; es decir, la respuesta producida en los fotorreceptores X será la suma de los
efectos de los dos estímulos lumínicos, y los mismo sucederá con los fotorreceptores Y. Es
decir, si trazáramos dos líneas desde el origen hasta los puntos sobre la curva que caracterizan
las respuestas de las dos luces monocromáticas, la respuesta compuesta será la suma de esos
dos vectores, la cual podemos fácilmente graficar acudiendo a la regla del paralelogramo. Si
variáramos la intensidad de dicho estímulo manteniendo la misma intensidad relativa de los dos
componentes, el efecto estará representado por un punto en el espacio x-y necesariamente

151
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

ubicado a lo largo de esa misma recta. En particular, habrá una intensidad que colocará ese
punto exactamente en la intersección con la curva de respuestas obtenidas con luces
monocromáticas de cierta intensidad (Fig. 9.16B); pero eso es lo mismo que recalcar que se
puede replicar el efecto de cualquier luz monocromática con la suma de otras dos luces: las
respuestas serán indistinguibles.
Hay un conjunto de puntos en el dominio de cromaticidad, que ocupa una posición especial: se
trata de la recta y=x (en este ejemplo con 2 tipos de células foto-sensibles, y por ende un
espacio cromático bi-dimensional), que define los estímulos que evocan una respuesta de igual
magnitud en las dos clases de fotorreceptores (la línea gris en la figura). Estos son estímulos
que no se percibirían como de ningún color particular, es decir, lo que, dependiendo de la
magnitud de la respuesta llamaríamos ‘blanco’ o ‘gris’. Evidentemente, hay luces
monocromáticas que al combinarlas de cierta manera pueden producir ese efecto (i.e. aquellos
puntos en la curva perimetral que al unirlos por una recta cruzan la línea diagonal); para otras
combinaciones eso no ocurre. Pares de estímulos lumínicos que al ser combinados con cierta
intensidad relativa producen una sensación acromática se conocen como ‘colores
complementarios’.
En un organismo con un sistema de visión cromática más complejo (más clases de
fotorreceptores espectralmente diferentes) el dominio de cromaticidad se torna más complicado
y requiere más dimensiones para poderse representar gráficamente (y lo mismo para las
mezclas de estímulos que se perciben como acromáticos). Pero de todas formas el resultado
es una representación geométrica de todas las percepciones de color posibles para un sujeto, y
de la forma como éstas pueden engendrarse con diferentes combinaciones de longitud de
onda.

Cabe mencionar que no solamente la capacidad de discernir


colores dentro de una cierta banda del espectro es diferente para
diferentes organismos, sino que la misma franja de luz que
llamamos ‘visible’ no es la misma para todos: por ejemplo, las
abejas (y muchas más especies) pueden ver luz ultravioleta, los
humanos no. El sol irradia cierta cantidad de luz en la banda UV,
por consiguiente, objetos que difieren en su absorbancia de luz
ultravioleta podrán verse diferentes si el sujeto percibe UV, pero
lucirán iguales a un sujeto que no tenga esa capacidad. De hecho,
las abejas son muy selectivas al elegir flores hacia las cuales se
dirigen para extraer néctar, y se basan en parte en diferentes
patrones de dibujos en los pétalos que sólo se distinguen pudiendo
ver UV; para un observador humano esas flores lucirían iguales.
La Figura 9.17 ilustra este punto: se tomó una fotografía de unas
flores blancas (según la ve un humano, por lo menos), y luego se
repitió la foto registrando las diferencias de la luz reflejada en la
banda UV gracias a una cámara capaz de reportar dichas
longitudes de onda (panel inferior): en este caso, aparecen
patrones que son completamente invisibles para el observador
Figura 9.17 humano.

Visión de luz polarizada

152
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Al introducir la luz como onda electromagnética, se habló de los parámetros principales que la
caracterizan, es decir, su amplitud y su frecuencia (o su longitud de onda), y en la sección
anterior se esbozó como las células fotosensibles del ojo pueden extraer la información
pertinente. Pero también se había mencionado que la luz puede ser polarizada, en otras
palabras, la oscilación del vector eléctrico podría no ocurrir en todas las direcciones en el plano
ortogonal al eje de propagación, sino ceñirse, por ejemplo, a una sola línea (en cuyo caso
tendríamos luz linealmente polarizada). Esa propiedad conlleva ulterior información, y de hecho
en la sección de microscopía se esbozó el uso de la luz polarizada para visualizar
características de un espécimen que de otra forma no serían visibles. En esta sección
examinaremos la posibilidad de que un detector biológico pueda discriminar luz polarizada y
discernir su orientación. Para eso, necesitamos refinar un poco nuestro entendimiento acerca
de las condiciones que permiten que el fotopigmento absorba luz. Hasta ahora, sencillamente
se dijo que el cromóforo (en la mayoría de los casos el aldehído de vitamina A, llamado 11-cis-
retinal) es responsable de la absorción de luz visible, pero hay que ser más específicos:
realmente la interacción entre fotones y materia concierne elementos particulares de ésta, los
electrones. Esta noción es intuitivamente obvia ya que la luz consiste en una oscilación
electromagnética la cual por lo tanto ha de actuar sobre alguna partícula eléctricamente
cargada. Los electrones representan justamente las cargas ‘expuestas’ en la materia (mientras
que los protones en el núcleo están resguardados por la nube electrónica que los rodea). En el
cromóforo, la interacción con el fotón a ser
absorbido concierne específicamente
electrones que se distribuyen a lo largo de la
cadena de carbonos que está pegada del anillo
(así llamado β-ionón), la cual está constituida
por un alternarse de enlaces covalentes dobles
y sencillos. El punto crucial es el siguiente: la
luz tendrá propensión a ser absorbida en la
medida en que la oscilación del campo
electromagnético esté alineada en una
dirección paralela a un cierto vector que
denominamos el momento dipolo de transición , Figura 9.18
el cual en el caso del cromóforo tiene
aproximadamente la misma orientación que esta cadena de enlaces. Ahora consideremos más
globalmente la disposición en el espacio de dicho momento dipolo de transición en una
molécula de fotopigmento visual. Ya se dijo que la rodopsina es una proteína constituida por
siete α-hélices que cruzan la membrana (esta parte protéica se conoce como la opsina) y el
cromóforo se encuentra enlazado a ella dentro de un ‘bolsillo’ en la región más hidrofóbica (ver
Figura 9.18). La ‘cola’ de carbonos del cromóforo está casi a 90 grados con respecto a las α-
hélices, es decir, el momento dipolo de transición es prácticamente paralelo al plano de la
membrana (en realidad se desvía un poco, alrededor de 15 grados, pero ignoraremos este
detalle). El importante recalcar que, pese a que la rodopsina es una proteína integral de
membrana, no se encuentra anclada y obligada a retener una posición fija, sino que ‘flota’ en la
bicapa lipídica, la cual está en un estado fluido; por lo tanto, la rodopsina es libre de moverse,
difundiéndose lateralmente y rotando. Como tal, en el plano de la membrana, los momentos
dipolo de transición de los cromóforos están distribuidos aleatoriamente en todas las
orientaciones.

153
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

Ahora consideremos la estructura fotosensible de los fotorreceptores de los vertebrados (conos


y bastones), la cual está formada por una pila de discos planos de membrana, en la cual se
encuentra la rodopsina; la Figura 9.19A ilustra esquemáticamente su constitución. Este arreglo
es una manera de maximizar la cantidad de membrana – y por lo tanto de fotopigmento – que
se puede empacar en un volumen pequeño, lo cual confiere a la célula una gran densidad
óptica, es decir, una gran capacidad de capturar fotones. La luz transita en la dirección axial del
cono o bastón, en otras palabras, cruza la pila de discos perpendicularmente. Supongamos que
la luz fuera polarizada linealmente: puesto que los cromóforos están orientados en todas las
direcciones en el plano ortogonal a la dirección de propagación del haz de luz (ver detalle
ampliado de un disco, en la
misma figura), hay igual
probabilidad de absorción, sin
importar la orientación del
vector de polarización (y sería
la misma que con luz no
polarizada). Como tal, una
célula fotosensible construida
de esta manera no puede
responder diferencialmente
según la polarización del
estímulo lumínico. Por otra
parte, en un fotorreceptor de
este tipo cualquier fotón
incidente, sin importar la
orientación de su vector
eléctrico, siempre encontrará
Figura 9.19
moléculas de fotopigmento
apropiadamente orientadas para absorberlo. Es decir, el renunciar a la posibilidad de detectar
polarización conlleva otra ventaja, la de una mayor capacidad de absorber luz y por ende una
mayor sensibilidad.
Miremos en cambio el diseño de otra clase de fotorreceptores, llamados ‘rabdoméricos’, que
son muy comunes entre invertebrados
(e.g. artrópodos y moluscos). Estas
células también empacan una gran
cantidad de rodopsina, pero en este
caso el aumento en la superficie de la
membrana fotosensible se logra por
invaginación de la membrana
plasmática, formando una miríada de
diminutas estructuras tubulares,
llamadas microvellosidades. En muchos
organismos estas microvellosidades
proyectan lateralmente, i.e. su eje es
perpendicular a la dirección de la luz
(Figura 9.19B). Supongamos que en la
membrana de estos ‘tubos’, al igual que
en los discos de los vertebrados, la
rodopsina también tuviera libertad
difusional, orientándose en todas las
Figura 9.20
direcciones sin preferencia alguna (ver

154
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

detalle ampliado de una microvellosidad, en la misma figura). A pesar de eso, se puede


demostrar que en este caso existiría una tendencia preferencial de absorber luz que fuera
linealmente polarizada en la misma dirección que el eje de este cilindro. Para visualizar el
porque, imaginemos que la sección de la microvellosidad fuera cuadrada en lugar de redonda,
es decir, que se tratara de un paralelepípedo en vez de un cilindro (Figura 9.20); esta
simplificación no altera de ninguna manera la generalidad de las conclusiones, pero facilita la
explicación. Podemos considerar por separado las dos caras alargadas perpendiculares al haz
de luz (i.e. la de ‘arriba’ y la de ‘abajo’), y las dos caras verticales. En las primeras habría
cromóforos orientados en todas las direcciones en el plano, al igual que en los discos, y una luz
polarizada de cualquier manera (o no polarizada) tendría la misma probabilidad de absorción
(Figura 9.20A). Pero la situación es diferente en las dos caras verticales del paralelepípedo: en
este caso si la luz fuera linealmente polarizada en la dirección del eje de la microvellosidad
(Figura 9.20B) encontraría una gama de orientaciones del momento dipolo de transición que
irían desde 100% favorable (cuando éste también se alinea con el eje de la microvellosidad)
hasta 0% favorable (cuando éste es vertical, es decir, alineado con el haz de luz). Esta
probabilidad de absorción dependiente del grado de alineamiento entre el cromóforo y el eje
principal de la microvellosidad, es proporcional al cuadrado del coseno de θ (θ siendo el ángulo
entre los dos vectores). La probabilidad global de absorción deberá tener en cuenta todas estas
orientaciones igualmente representadas, y se obtiene integrando este factor sobre todos los
ángulos posibles:

P ≈ ∫Acos2θdθ
0

155
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

En cambio, para luz polarizada en la dirección ortogonal a las microvellosidades (Figura 9.20C)
el vector eléctrico será necesariamente también perpendicular a todos los cromóforos y por
consiguiente con probabilidad mínima de ser absorbida. Quiere decir que en las dos caras
‘verticales’ del paralelepípedo efectivamente hay absorción para luz polarizada en una dirección
(alineada con el eje de la microvellosidad) pero no en la dirección perpendicular. Sumando
entre las 4 caras del paralelepípedo resulta por lo tanto una neta tendencia preferencial de
absorber luz con una cierta dirección de polarización (2 caras no preferenciales y 2 que sí lo
son). El argumento para una estructura cilíndrica es similar, pero el continuo de orientaciones
obliga a realizar el cómputo de una manera un poco más compleja (que implica una integral en
coordenadas cilíndricas) aunque el resultado es el
mismo. Notar que la sola geometría de la forma como
se organiza la membrana fotosensible ya es de por sí
capaz de producir este efecto; hay además indicios de
que en algunos casos podría existir algún tipo de
anclaje que, al alinear los cromóforos con el eje de las
microvellosidades, aumentaría ulteriormente la
selectividad. Ahora pasemos de una microvellosidad
individual a una célula entera, y consideremos un
fotorreceptor en el cual todas sus microvellosidades Saibil & Hewat, J. Cell Biol., 1987
tienen la misma orientación; esto puede ocurrir bien
sea si éstas solamente emanan paralelas de un lado
de la célula (como es el caso en el diagrama de la
Figura 9.19B) o de dos caras opuestas (como veremos
en la figura 9.21). Dicha célula necesariamente
absorbe luz diferencialmente según como esté
polarizada la luz: decimos que su índice dicróico (que
viene siendo el cociente de la absorción entre la luz
polarizada en la dirección óptima vs. a 90˚) es
necesariamente >1. Supongamos que la matriz retinal
contuviera células de este tipo, orientadas de tal
manera que sus microvellosidades estuvieran
alineadas bien sea en una dirección o en la dirección
ortogonal: el panel superior de la Figura 9.21 ilustra
esquemáticamente dicho arreglo en el caso de la Zonana, Bull. Johns Hopkins Hosp., 1961
retina de cefalópodos. Se trata de una disposición
parecida a la de un piso de madera en ‘parquet’. El
panel central muestra una micrografía electrónica de
una sección transversal de la retina de un calamar, la
cual muestra justamente este arreglo. Se han dibujado
recuadros que enmarcan la sección de diferentes
células adyacentes (numeradas 1 a 4), y doble flechas
que indican la orientación de las microvellosidades.
Finalmente, el panel inferior de la misma figura ilustra
un corte longitudinal en el cual se aprecian una
porción de tres fotorreceptores contiguos: hay una
célula central, el soma de cuyo segmento distal se ve
como una línea diagonal, de la cual emanan
perpendicularmente las microvellosidades (i.e. en el
Saibil, J. Mol. Biol., 1982
plano de la fotografía). A cada lado, en cambio, las
microvellosidades de dos células vecinas están ‘de Figura 9.21
punta’, es decir, perpendiculares a las de la célula

156
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

central. Evidentemente se tienen dos poblaciones de fotorreceptores, cada una con su


preferencia para luz polarizada en una cierta dirección. Si dichas células sensoriales envían
separadamente sus señales al ‘cerebro’ de dicho organismo, y éste es capaz de efectuar una
comparación entre las respuestas (R) de las dos clases de células en cada región del campo
visual, se puede determinar la polarización de la luz: por ejemplo, si denotamos las dos clases
de células como ‘A’ y ‘B’, entonces en el caso en que para dos fotorreceptores contiguos R(A) >
R(B), se puede inferir que la luz que se enfocó en esa región de la retina está polarizada según
el eje preferencial de A, y viceversa. Es decir, se puede construir una imagen del patrón de
polarización en todo el campo visual. Este procesamiento es paralelo a la estrategia utilizada
por la visión cromática, en la cual se compara la respuesta de diferentes fotorreceptores, cada
uno preferencialmente responsivo a una cierta longitud de onda.

Cuando podría resultar útil esa habilidad?


La luz polarizada no es prerrogativa del
laboratorio, sino existen diversas instancias
en el mundo natural en las cuales la luz
llega al observador con una determinada
polarización. Hay dos situaciones
particularmente ubicuas: una es cuando la
luz (del sol, usualmente) rebota sobre una
superficie como un espejo de agua; la otra
concierne la luz que es dispersada por
partículas, como ocurre en la atmósfera. En
ambos casos emerge un rayo que puede
ser parcial- o totalmente polarizado
linealmente. Consideremos el primer caso:
luz solar no polarizada incide oblicuamente Fugura 9.22
sobre la superficie de un lago, por ejemplo;
la Figura 9.22 ilustra la situación de una manera esquemática. Recordemos que la oscilación
del campo electromagnético ocurre en un plano perpendicular a la dirección de propagación.
Cualquiera que sea el ángulo de incidencia, componentes de la luz incidente cuyo vector de
oscilación es paralelo a la superficie del agua siguen siendo perpendiculares a la dirección del
rayo reflejado y pueden continuar como onda transversal luego de haber rebotado sobre la
superficie (flechas rojas horizontales). En cambio, oscilaciones en el plano normal a la
superficie, se encuentran en gran medida alineadas con la trayectoria de la reflexión. Es más,
hay una condición particular (el así llamado ángulo de Brewster, cuando el ángulo de incidencia
es tal que el rayo reflejado y el refractado se encuentran a 90°) en la cual el componente
oscilatorio en el plano normal a la superficie
estaría perfectamente alineado con la
trayectoria de propagación del rayo reflejado,
lo cual es un imposibilidad: la luz reflejada
entonces sólo contendrá el componente
horizontal, es decir, estará totalmente
polarizada. En resumen, el brillo del sol o de
la luna sobre el mar (o cualquier espejo de
agua) es polarizado, en mayor o menor
medida. Nuestro sistema visual, al igual que
los demás organismos vertebrados (con unas
pocas excepciones), es totalmente insensible
a tales características de la luz, pero el de
Figura 9.23 muchos insectos en cambio no. Hay

157
Enrico Nasi: Introducción a la Biofísica – Módulo de Óptica

evidencia de que ciertas especies que han de sobrevolar regiones áridas pueden aprovechar la
capacidad de discernir dichos patrones de polarización para fácilmente localizar charcos que
puedan suplir su vital necesidad de agua.
El otro caso concierne los fotones dispersados por partículas atmosféricas. Si miramos la luz
del sol de frente, se trata de rayos que siguen su trayectoria original, y por lo tanto continúan
siendo no polarizados. Pero si el observador se ubica perpendicularmente a la trayectoria de un
rayo que del sol se dirige a la tierra, la luz que le llega necesariamente ha sido dispersada.
Nuevamente, esa trayectoria ortogonal al rayo original no puede contener sino oscilaciones en
una dirección, la otra no sería perpendicular sino paralela a la propagación (Figura 9.23).
Direcciones intermedias tendrán un grado intermedio de polarización. Nosotros vemos el cielo
azul iluminado debido a la dispersión de la luz en la atmósfera, de lo contrario veríamos el sol
brillar sobre el fondo de un cielo negro (como son las fotografías tomadas por los astronautas);
el color azul deriva del hecho que son precisamente las longitudes de onda más cortas que
más son dispersadas. Pero una consecuencia de este estado de cosas es que la luz del cielo
inevitablemente tiene un patrón de polarización que es distinto en diferentes regiones (ver
Figura 9.24) y que depende además de la posición del sol – y por lo tanto también de la hora
del día. Esta pauta se preserva aún cuando el
sol no es directamente visible, por estar oculto
detrás de una capa de nubes o tapado por las
hojas de la copa de los árboles en la foresta,
que sólo dejan ver unos parches de cielo. Por
lo tanto, una abeja puede discernir esta
información, la cual puede ser utilizada para
guiar su vuelo, permitirle orientarse y encontrar
el camino de vuelta al panal después de una
excursión lejana en búsqueda de néctar, aún en
ausencia de otros indicios visuales. Este
‘compás’ celeste, invisible a nuestros ojos,
resulta ser especialmente vital en aquellos
ambientes carentes de claros puntos de
referencia, o en los cuales éstos pueden ser Figura 9.24
cambiantes y por ende poco confiables (como
ocurre en el desierto, dónde los vientos
constantemente re-configuran las dunas).
Finalmente, la capacidad de discriminar polarización es utilizada también para otros propósitos:
algunos cefalópodos pueden alterar las propiedades reflectivas de su piel, generando patrones
de luz polarizada que son percibidos por otros individuos y aparentemente sirven como un
canal de comunicación intra-especie.
Una vez más, el espacio visual de otros organismos puede ser notablemente más rico de lo
que nuestra experiencia en esa misma modalidad sensorial nos ofrece. Por supuesto, la
tecnología puede acudir a nuestra ayuda y suplir algunas limitaciones de nuestro equipaje
biológico. Ya se ha mencionado su uso en microscopia, donde podemos utilizar filtros que
polarizan la luz e interponerlos en el camino del iluminador y de la luz a ser visualizada, y lograr
de esta manera convertir patrones de polarización en diferencias de intensidad de luz, las
cuales pueden luego ser fácilmente discernidas por nuestros ojos o por una cámara.

158

También podría gustarte