Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Cincuenta Años Del Adn
Cincuenta Años Del Adn
«Behold’st thou not two shapes from the east and west
Come, as two doves to one beloved nest,
Twin nurslings of thee all-sustaining air
On swift still wings glide down the atmosphere?»
INTRODUCCIÓN
«We wish to suggest a structure for the salt of deoxyribose acid (D.N.A.). This structure has novel features
which are of considerable biological interest».
Esas palabras representan la culminación de un brillante trabajo que supuso la llave de la biología
molecular y de la biotecnología. James Dewey Watson y Francis Harry Compton Crick resolvieron el
rompecabezas formado por las diferentes piezas confeccionadas por diversos científicos y cuyo resultado —–
A structure for deoxyribose nucleic acid— fue publicado por la revista Nature en su número 4356,
correspondiente al día 25 de abril de 1953. El trabajo —conciso, comprensible y sólido— establece cuatro
características incuestionadas: la molécula de ADN está formada por dos cadenas, antiparalelas,
complementarias, que se enrollan sobre un eje común de simetría en una conformación en doble hélice. El
trabajo concluye:
«It has not escaped our notice that the specific pairing we have postulated immediately suggests a possible
copying mechanism for the genetic material»
Ello despejó las dudas sobre la naturaleza del material genético, hasta entonces en pugna con las
proteínas, y supuso la explosión de la genómica, la consolidación de la medicina molecular y el despegue de
una industria de imprevisible futuro. Tal vez, el trabajo más influyente de la biología contemporánea.
Todo ello hace que las «bodas de oro» de la «doble hélice» sean un acontecimiento celebrado por los
científicos, para quienes ha supuesto una herramienta conceptual inagotable, y por la sociedad, para la que
abrió las puertas a una nueva medicina y a una industria sin fronteras.
1. Comfort, N.C. (2001) Are genes real? Natural History, 110 (5): 28-37.
4
Sin embargo, en la última década de los 1800s ni la teoría de Mendel ni la teoría de
Darwin tenían influencia alguna. Mendel murió en 1884 y su publicación seguiría ignorada
hasta la vuelta del siglo, y la pangénesis fue, simplemente, rechazada. Las teorías de la
herencia construidas en las décadas de 1880s y 1890s, también asumieron la existencia de
partículas hereditarias reales, físicas, que recibieron nombres exóticos como «ids», «bióforos»
y «pangenes».
Cuando los principios de Mendel, con su concienzudo tratamiento matemático de la
herencia, fueron redescubiertos en 1900 el péndulo osciló hacia las teorías abstractas del gen.
William Bateson, un biólogo inglés, vio en las unidades abstractas un arma útil para atacar la
idea darviniana de las variaciones continuas en la naturaleza. Thomas Hunt Morgan, un joven
embriólogo norteamericano siguió los pasos de Bateson. En 1903, Walter Stanborough Sutton,
un citólogo de igual nacionalidad, ofreció una explicación de los principios de Mendel
sugiriendo que los elementos mendelianos se localizaban en los cromosomas. Dos años
después, el genetista Nettie Stevens, uno de los primeros estudiantes de Morgan, demostró
que el sexo estaba asociado con un misterioso y accesorio cromosoma (cromosoma X).
Morgan, sin embargo, se mostró escéptico; pero en 1910, abruptamente, tomó la dirección
opuesta. Experimentos de cruzamiento revelaron que el color de los ojos se heredaba junto con
un “factor” que determinaba el sexo. Los resultados de Sutton no pudieron ignorarse: color de
los ojos y sexo estaban ligados por asociación con el cromosoma X.
Morgan y sus discípulos hicieron a los genes, otra vez, reales. Durante los años
siguientes desarrollaron los primeros mapas génicos, asignando los genes para diversos
rasgos en diferentes cromosomas, y midieron la distancia entre genes en términos de la
probabilidad de que dos rasgos se heredaran juntos. Para aquellos genetistas de la mosca un
gen era algo parecido a un locus, un punto físico en un cromosoma. En 1922, Hermann Joseph
Muller, otro de los estudiantes iniciales de Morgan, fue más lejos describiendo los genes como
partículas ultramicroscópicas.
Los integrantes de esta “clásica” escuela de genética ignoraron la cuestión de la
composición de los genes; el interés lo centraban en qué hacían. Trabajando con el hongo
Neurospora, George Wells Beadle, un genetista, y Edward Lawrie Tatum, un químico por
formación, apuntaron una elegante contestación en 1941. Identificaron mutaciones genéticas
que interrumpían pasos específicos en la síntesis de una molécula compleja. Conocían por los
bioquímicos que cada paso metabólico está catalizado por una enzima particular; concluyeron
que cada mutación noqueaba una enzima. En genética clásica los genes habían sido definidos
como “cosas” que, cuando mutaban, cambiaban un rasgo: una mutación, un gen. Beadle y
Tatum redefinieron la definición mostrando que un gen era «algo» en un cromosoma que
especificaba una enzima: un gen, una enzima. Según el trabajo de Beadle y Tatum fue siendo
aceptado, más y más científicos se fueron adhiriendo a la hipótesis de la realidad de los genes.
Cuando, en 1953, James Dewey Watson y Francis Harry Compton Crick publicaron sus dos
trabajos describiendo la doble hélice de ADN, el que esta molécula es el material genético era
una idea ampliamente aceptada. La genialidad del modelo W-C fue que la estructura de la
molécula y la estructura del gen son una y la misma cosa. Quedó establecido que un gen era
una secuencia particular de subunidades nucleotídicas en las bandas del ADN (Capítulos 1 -
3).
Para la mayoría de los genetistas el descubrimiento de la doble hélice zanjó,
inequívocamente, el debate a favor de la realidad génica, aunque quedó algún incrédulo.
Cuentan que el bioquímico ruso Vladimir Engelhardt relataba una anécdota sucedida en un
encuentro con su compatriota el agrónomo Trofin Denisovich Lysenko, quién había abjurado de
Mendel y de Darwin. Lysenko, ante un vial de ADN liofilizado, exclamo: «El ADN es un ácido;
los ácidos son líquidos; eso es un polvo. No puede ser ADN».
5
Pero no habían pasado más de cuatro años de la publicación de Watson y Crick, cuando el
suelo bioquímico se tambaleó de nuevo. Seymour Benzer, un físico reconvertido en genetista
viral, de la Universidad de Purdue, propuso que existía más de un tipo de gen, y sugirió el
término «cistrón» para referirse a un segmento de ADN que codifica una proteína. En esencia,
el cistrón era el gen de Beadle y Tatum expresado en el lenguaje de Watson y Crick. El término
hizo mella y aún se utiliza. Por su parte, «recones» y «mutones», otros tipos de gen propuestos
por Benzer cayeron en el olvido. Ello sirvió, sin embargo, para que surgieran fisuras en el
término monolítico de gen.
Mientras tanto, un grupo de genetistas franceses, liderados por Françoise Jacob y
Jacques Monod, mostró que las fronteras de los genes eran más imprecisas de lo que los
biólogos habían supuesto. Primero, los genes trabajan, a menudo, en grupo; Jacob y Monod
describieron el gen como un conjunto de «genes estructurales» que codifican proteínas, y
«genes reguladores» que activan o silencian a aquellos en respuesta a las señales celulares.
Más aún, Jacob y Monod demostraron que los genes no se restringen a los cromosomas;
encontraron elementos génicos libres, denominados episomas y plásmidos, en bacterias, y que
otros investigadores pronto localizaron también en los organismos superiores. Mitocondrias -las
plantas intracelulares productoras de energía- en las células animales y cloroplastos en las
células vegetales poseen sus propios genes, heredando sus características de manera
independiente de aquellas que residen en los cromosomas.
En 1967, James Shapiro, un norteamericano que en aquellas fechas trabajaba en
Londres y Sankhar Adhya, de la Universidad de Wisconsin, dieron otra vuelta de tuerca:
regiones del ADN bacteriano pueden separarse por sus propios medios del lugar que,
normalmente, tienen asignado en el cromosoma y reinsertarse, sin ayuda alguna, en otro sitio.
Llamaron a esas regiones «elementos móviles de inserción». Veinte años antes, Barbara
McClintock, una brillante genetista del maíz en la Institución Carnegie de Washington, había
demostrado que ciertos elementos cromosómicos —no creyó que fueran genes— podían
mudarse, pero fueron Shapiro y Adhya los que primero advirtieron como se desarrollaba dicha
mudanza. Diez años después, los elementos de inserción eran un acontecimiento universal.
Las bacterias los utilizan para pasarse los genes que confieren resistencia a los antibióticos;
una de las principales razones de que las cepas resistentes se difundan con tanta rapidez. Los
elementos de inserción capacitan a los retrovirus (VIH o virus del sida, por ejemplo) para
incorporar sus genes en los cromosomas hospedadores. Hacia 1980, los biólogos habían
aceptado que ciertos genes se mueven, de manera rutinaria, dentro de un cromosoma y entre
cromosomas; dentro de una especie y entre especies. Los genes móviles torpedearon la idea
del gen como un locus en el cromosoma. Un gen pasó a ser «uno o más segmentos de ADN
que especifican una proteína». El ADN es transcrito en un producto intermedio denominado
ARN, que transborda el mensaje genético a los ribosomas, donde es traducido en una cadena
polipeptídica.
En 1977 dos grupos de investigación, uno dirigido por Richard J. Roberts en el Cold
Spring Harbor Laboratory, y el otro liderado por Phillip A. Sharp en el MIT, encontraron que
numerosos segmentos de ADN que constituyen un solo gen se encuentran dispersos en un
cromosoma; segmentos que, una vez transcritos en un preARN serán unidos en la molécula
del ARN mensajero. Más aún, esos mismos segmentos pueden reagruparse combinándose de
diferentes guisas, de tal manera que «un solo gen» es capaz de producir una familia de
productos: un gen, a veces, varias enzimas. Y la historia sigue complicándose. Los biólogos
han encontrado genes dentro de genes, y genes que se solapan. Y, en algunos casos, la
misma secuencia de ADN especifica una proteína si se lee de derecha a izquierda, y otra
proteína cuando se lee de izquierda a derecha. Por su parte, en el fenómeno conocido como
«edición» del ARN, un «salteador» intercepta el ARN en ruta hacia el ribosoma y lo modifica,
con lo que la proteína resultante de la traducción del ARN revisado no corresponde a la
6
especificada por el ADN. En resumen, las instrucciones codificadas en el ADN no siempre
alcanzan los ribosomas como una transcripción exacta.
De alguna manera, aunque se ha validado la realidad del gen, éste, de nuevo, se
parece más a un ideal. Poco debe sorprender que algunos, como el historiador y filósofo de la
biología Evelyn Fox Séller, hayan propuesto revisar el término gen y sustituirlo por otro que
exprese mejor el dinamismo de los cromosomas. El ADN no está formado por unidades
discretas con bordes nítidos; lo está por secuencias que metamorfosean, reptan y se reciclan
(Capítulos 4 – 6).
El péndulo sigue su movimiento oscilatorio. De la mano de la secuencia del genoma,
uno de los temas más candentes de la actualidad es la utilización de chips de ADN para
obtener fotos panorámicas de la actividad de los diferentes genes en una célula. El investigador
puede observar, de una tacada, qué genes se activan en una situación determinada. Es una
herramienta poderosa y con un prometedor futuro en biología del desarrollo, en medicina —
diagnóstico y predicción— y en el descubrimiento de nuevos fármacos. También, las
particularidades del genoma permiten identificar sus «huellas dactilares» y bucear en la
evolución de la especie humana. Todo ello de la mano de potentes herramientas de
computación. Por su parte, los chips de ADN, de nuevo, hacen reales a los genes al imponer
fronteras nítidas entre ellos. Y el péndulo completa otra oscilación. El siguiente movimiento
ofrecerá, sin duda, nuevos conocimientos (Capítulos 7 – 14).
Deseo agradecer a la Sociedad Estatal de Conmemoraciones Culturales, y
especialmente a su director Luis Miguel Enciso Recio, su disposición para sumarse a las
diferentes iniciativas que, las distintas instituciones científicas de todo el mundo, han
organizado para celebrar los “cincuenta años de ADN”. Una acción explicitada en la edición,
de la mano de Editorial Espasa Calpe, S. A., de este libro. Mi cordial gratitud y sincero afecto a
los autores —Begoña Aguado, Ángel Carracedo, José A. Melero, Francisco Montero, Lluis
Montoliú, Andrés Moya, Emilio Muñoz, Juan Ortín, José M Sánchez Ron, Eugenio Santos,
Eduardo Úrculo y Alfonso Valencia—, quienes respondieron con prontitud a la llamada para
sumarse a esta iniciativa. Gratitud que hago extensiva a Dolores Cruz, editora. Y, ante todo,
nuestro reconocimiento y felicitación a Francis Harry Compton Crick y a James Dewey Watson,
por su biscincuentenario.
Watson y Crick delante del modelo del ADN (En: James D. Watson, The Double Helix. A Personal
Account of the Discovery of the Structure of DNA. A Signet Book – The New American Library,
New York 1969).
8
2
SENDERO DE ADN
____________________________________________________________
Hacia 1820, hidratos de carbono, grasas y proteínas habían sido reconocidos como
distintos ingredientes de los organismos vivos. Habrían de pasar cincuenta años antes de que
Miescher identificara un cuarto componente. Friedrich Miescher nació, en 1844, en Basilea, en
cuya universidad estudió medicina. Su formación como químico tuvo lugar en el laboratorio de
Felix Hoppe-Seyler, en la Universidad de Tübingen. Su intención fue estudiar la química del
núcleo celular, para lo que necesitó células ricas en «núcleo» y pobres en «citoplasma»:
leucocitos.
Miescher obtuvo leucocitos a partir del pus de heridas infectadas. Lavaba los vendajes
con sulfato sódico para separar las células, eliminando la grasa con alcohol caliente y
disolviendo las células con ácido hidroclorhídrico diluido; ello precipitaba los núcleos, de los
que eliminaba las proteínas mediante digestión con un extracto de estómago porcino (rico en la
enzima proteolítica pepsina). Cuando los núcleos así purificados eran disueltos en álcali diluido
y luego neutralizado, se obtenía un precipitado floculante. Este material, que Miescher
denominó «nucleína», contenía 14% nitrógeno, 6% fosfato y 2% azufre, además de carbono,
hidrógeno y oxígeno. El contenido de nitrógeno era similar al de las proteínas, y el contenido de
fosfato al de la lecitina, un fosfolípido que acababa de descubrirse. Dado que nitrógeno y
fosfato parecía que estaban presentes en la misma sustancia, Miescher concluyó que «es muy
probable que tengamos una sustancia sui generis, no comparable a cualquier otro grupo hasta
ahora conocido»1. La composición elemental sugiere que las primeras preparaciones de
nucleína fueron una mezcla de diferentes componentes. Con todo, el estudio de Miescher de
1869 —publicado en 1871— representa la primera preparación conocida del material que
llegaría a conocerse como «ácido desoxirribonucleico» (ADN). Miescher intuyó que debería
tratarse de una molécula de gran tamaño, y que en el esperma de salmón aparecía formando
un complejo con una proteína básica que denominó «protamina». El trabajo de Friedrich
Miescher había demostrado que un constituyente principal del núcleo celular era una molécula
acídica que contiene nitrógeno y fósforo; sin embargo, la caracterización de este material
correspondió al trabajo de otro discípulo de Hoppe-Seyler, Albrecht Kossel.
Karl Martin Leonhard Albrecht Kossel nació en 1853, en Rostock (FIGURA 1).
Concluidos sus estudios en medicina, sus trabajos iniciales (1879-1880) se centraron en la
nucleína de levadura, que no se asocia con proteína. Demostró que este material contiene las
bases nitrogenadas xantina e hipoxantina descritas a principios del s XIX y de las que se
conocía su relación con el ácido úrico. Otro compuesto similar, guanina, había sido aislada del
núcleo del esperma. Pocos años después, Kossel descubrió un cuarto componente
nitrogenado que denominó adenina.
1.-Lagerkvist U. (1998) DNA pioneers and their legacy. Yale University Press, ISBN 0-300-07184-1.
En: www.fmi.ch/members/marilyn.vaccaro/ewww/dna.pioner.excerpt.htm (acceso: dic 02).
9
Las estructuras de tales compuestos fueron determinadas por Hermann Emil Fischer
entre 1881 y 1898. Fischer demostró que guanina, xantina, hipoxantina y adenina, así como
cafeína y ácido úrico, derivaban, todas ellas, de una molécula parental común que denominó
«purina». En reconocimiento de su trabajo sobre la síntesis de azúcares y de purinas, Fischer
fue galardonado con el Premio Nobel de Química 1902.
En 1889, Richard Altmann demostró que la nucleína era un complejo formado por
proteína y un compuesto rico en fosfato que denominó ácido nucleico. Y a principios de los
1890s Kossel, tras separar las bases púricas del ácido nucleico, encontró dos nuevos
componentes nitrogenados a los que llamó timina y citosina; compuestos más simples —
constan de un solo anillo— que pertenecen a una clase de moléculas conocidas como
pirimidinas. Un tercer componente del ácido nucleico —tras la identificación de las bases
nitrogenadas y del fosfato— fue un azúcar, que Kossel aisló del ácido nucleico de levadura en
1893.
El tercero de los grandes químicos que se ocuparon del ácido nucleico fue Phoebus
Aaron Theodor Levene, nacido en 1869, en Sabor, Rusia. Estudió fisiología con Ivan Pavlov y
química con Alexander Borodin. En 1891 emigró a EE.UU., iniciando, en 1896, su trabajo con
los ácidos nucleicos. En aquellos días estaba bien documentado que tales sustancias
constaban de cuatro tipos diferentes de componentes: bases púricas, bases pirimidínicas,
azúcar y ácido fosfórico. Se habían identificado cuatro bases púricas —guanina, adenina,
xantina e hipoxantina— pero pronto de comprobó que las dos últimas no formaban parte de los
ácidos nucleicos. También se conocían tres bases pirimidínicas: timina, citosina y uracilo.
Las investigaciones iniciales de Levene arrancaron de su creencia de que los ácidos
nucleicos jugaban un papel importante en el desarrollo y en la regeneración de los tejidos. En
1899 escribió que «los nucleoproteidos son la clave para comprender como el organismo
repara su desgaste». Si estaba en lo cierto, los diferentes tejidos deberían contener ácidos
nucleicos diferentes; con esa idea, comenzó a analizar ácidos nucleicos procedentes de
diferentes tejidos y diferentes organismos. En 1901 apareció la primera de una serie de doce
publicaciones: Preparación y análisis de diferentes ácidos nucleicos2. Si la variación en la
composición de bases se debía a diferencias específicas de los tejidos o era mero artefacto
experimental, fue la gran pregunta. Para 1907 Levene había abandonado su investigación,
concluyendo que las proteínas nucleares y no los ácidos nucleicos eran las responsables de
las funciones del núcleo en la herencia y en el desarrollo. Sin embargo, no perdió su interés por
los ácidos nucleicos, concentrándose en determinar sus estructuras.
Figura 2. (Izq.) Estructura del ADN propuesta por P. Levene y S. Tipson. Muestra un esqueleto de
azúcar-fosfato, fruto de enlaces fosfodiéster, al que se anclan, vía de las pentosas, las bases
nitrogenadas (Modificada de: J Biol Chem 109: 625, 1935). (Dcha.) Fragmento de ADN tal como fue
imaginado por el grupo de Alexander Todd, en 1951. Los engarces internucleotídicos eran enlaces
fosfodiéster. A Todd y cols., como químicos, les interesaba la forma en que se unían los átomos; la
disposición tridimensional de ellos era un problema de los cristalógrafos (Modificada de: JD Watson,
The Double Helix, pg 40).
EL MECANISMO DE LA HERENCIA
NUCLEINA Y HERENCIA
El núcleo celular fue descubierto en las células vegetales por el botánico Robert Brown
en 1833; orgánulo al que Jacob Mathias Schleiden responsabilizó de la formación de nuevas
células, y que Oskar Hertwig involucró en el fenómeno de la herencia en 1876. «La unión del
núcleo del huevo con el núcleo del esperma es necesaria —escribió Hertwig— para producir
un núcleo dotado con las fuerzas vitales adecuadas para estimular eficazmente los procesos
de desarrollo posteriores en el embrión y controlarlos en muchos aspectos»4. Tres años
después, Walter Flemming, profesor de anatomía en Kiel, denominó «cromatina» al
componente nuclear teñido por colorantes basófilos, sugiriendo poco después que la cromatina
era el equivalente citológico del ácido nucleico. En 1883, Edouard van Beneden señaló la
existencia de estructuras semejantes a bastoncillos en el núcleo celular; estructuras que, con
posterioridad, se denominaron «cromosomas». Por otro lado, van Beneden indicó que las
células germinales contenían la mitad de cromosomas que las células somáticas, y que la
fusión de las células germinales de ambos sexos restauraba la dotación cromosómica: «Cada
núcleo hijo recibe la mitad de su sustancia cromática del espermatozoo y la otra mitad del
óvulo»5. Por su parte, August Weismann, de la Universidad de Friburgo, escribió en 1893:
__________________________________________________________________________
3.-Gregor Mendel’s letters to Carl Nägeli (1866-1873) Traducción al ingles por Leonie Kellen Piternick
y George Piternick. En: Electronic Scholarship Publishing – www.esp.org/ foundations/genetics/
classical/holdings/m/gm-let.pdf (acceso: dic 02).
4.-Citado en: Hunter GE, pg 127 (ver bibliografía seleccionada: v.b.s.).
5.-Van Beneden E. En: www.fundp.ac.be/bioscope/1883_vanbeneden/vanbeneden.html (acceso: dic 02).
12
«Dado que la sustancia hereditaria está contenida en el núcleo, la cromatina debe ser la
sustancia hereditaria»6.
En esta época dos fenómenos generales esperaban una explicación: cómo todos los
tejidos especializados del organismo se originan a partir de una única célula fertilizada; y, cómo
los tejidos especializados de un organismo adulto pueden producir células capaces de generar
un nuevo organismo completo. El primer intento de contestación se expone en el libro de
Charles Darwin La Variación de Animales y Plantas bajo Domesticación, publicado en 1868. La
«hipótesis provisional de pangénesis» de Darwin propuso que la formación de células
germinales implicaba el reclutamiento de cuerpos minúsculos —gémulas— formados a partir
de todos y cada uno de los tejidos especializados del organismo. En el curso de desarrollo
embrionario las gémulas darían lugar a los tejidos especializados de los que originalmente
derivaron. La pangénesis aparecía inconsistente con la experiencia añeja del injerto de plantas,
y con los experimentos de Francis Galton sobre transfusión de sangre entre diferentes razas de
conejos. Si la teoría de Darwin fuera correcta, las gémulas presentes en la sangre transfundida
deberían inducir mongrelismo en la descendencia de los conejos transfundidos.
Una hipótesis alternativa a la pangénesis fue propuesta por August Weismann. Sugirió
que un pul de células indiferenciadas «totipotentes» se transmitirían de generación en
generación. El material hereditario en esas células, denominado «idioplasma», estaba formado
por un conjunto de «idantes» que corresponderían a los cromosomas. Los idantes estarían
formados por «ids», que corresponderían a los «gránulos», microscópicamente visibles, en los
cromosomas. Los ids estarían formados, a su vez, por miles o cientos de miles de unidades
denominadas «determinantes». La diferenciación terminal de una célula implicaría la
permanencia de un solo determinante, el específico del tejido, que se desintegraría en las
unidades fundamentales de la herencia o «bióforos» que formarían las estructuras
especializadas típicas de la célula, y que llevarían a cabo las funciones vitales esenciales como
asimilación y crecimiento.
Por su parte, Hugo Marie de Vries, profesor de botánica en la Universidad de
Ámsterdam, propuso en 1899 una «teoría de pangénesis intracelular»7. De Vries, como Darwin
y Weismann, asumió la existencia de partículas materiales responsables de los caracteres
hereditarios observables. Sin embargo, rechazó el mecanismo de transporte desde los tejidos a
las células germinales propuesto por Darwin, y la pérdida de partículas hereditarias durante el
desarrollo y diferenciación indicado por Weismann. De acuerdo con de Vries, todas las células
de un individuo contenían la misma dotación de partículas hereditarias o pangenes, pero en los
diferentes tejidos solo se activaban determinados conjuntos de pangenes: «En los organismos
superiores no se activan todos los pangenes existentes en una célula dada, sino que en cada
célula uno o más grupos de pangenes dominan e imprimen carácter a la célula». Los pangenes
constituían los cromosomas nucleares y, también, el protoplasma citoplasmático. En una
determinada célula especializada sólo algunos pangenes emigrarían desde el núcleo al
citoplasma, donde se activarían.
Todas las teorías basadas en «factores» —gémulas, bióforos, pangenes—- asumían la
existencia de partículas subcelulares determinantes de la especialización de los tejidos. De
____________________________________________________________________________
6.-Weismann A (1893) The Germ-Plasm. A Theory of Heredity. Charles Scribner’s Sons. On-line
Electronic Edition: Electronic Scholarly Publishing. Prepared by Robert Robbins. En: www.esp.org/ books
/Weismann/germ-plasma/facsimile (acceso: dic 02).
7.-De Vries H (1910). Intracellular Pangenesis. Including a paper on Fertilization and Hybridization.
Translated from the German by C. Stuart Gager. Chicago: The Open Court Publishing Co. 1910. On-line
Facsimile Edition: Electronic Scholarly Publishing. Prepared by Robert Robbins. En: www.esp.org/books/
devries/pangenesis/facsímile (acceso: dic 02).
13
acuerdo con Darwin y Weismann, sólo los hepatocitos, por ejemplo, contenían factores hepato-
específicos; pero según de Vries todas las células contenían factores hepatoespecíficos pero
sólo en el hígado eran activos. Por otro lado, la naturaleza física de esos factores no era motivo
de preocupación de los teóricos, aunque se intuía una correlación de los factores involucrados
en la herencia y desarrollo y la química fisiológica. La información recogida a finales del siglo
XIX señalaba que los factores de la herencia se asociaban con lo que los citólogos
denominaban cromatina y los químicos fisiológicos identificaban como nucleína, constituida,
como Richard Altmann había demostrado, por ácido nucleico y proteína.
Por otro lado, el más ferviente defensor de las tesis de Mendel fue el zoólogo inglés William
Bateson quién, en 1901, publicó la primera versión inglesa de la publicación de Mendel de
1866. Al año siguiente, Bateson publicó Los Principios de Mendel de la Herencia: Una Defensa.
Bateson acuñó la palabra alelomorfo —luego acortada a «alelo»— para referirse al par de
determinantes responsables de los correspondientes caracteres heredados, describió el
fenómeno de ligamiento y sugirió el término «genética» para el estudio de la herencia.
Bateson9, además, fue consciente de que las leyes de Mendel eran operativas en el humano,
señalando que la alcaptonuria presentaba una distribución familiar que sugería un mecanismo
mendeliano. Las observaciones de Bateson fueron reelaboradas por Archibald Garrod quién,
en 1908, señaló dos hechos importantes: que esas condiciones eran hereditarias siguiendo un
patrón mendeliano y, segundo, que tales enfermedades tenían lugar por la ausencia de pasos
específicos en el metabolismo, lo que resultaba en la excreción de productos intermedios
parcialmente metabolizados. Esto último asociaba dos grandes corrientes científicas de finales
del siglo XIX: el mendelismo y la teoría enzimática de la vida.
____________________________________________________________________________
En el tránsito secular, el papel genético del ácido nucleico era bastante popular. Sin
embargo, durante la primera década del siglo veinte esta idea perdió apoyos. En las dos
primeras ediciones —The Cell in Development and Inheritance, 1896 y 1900— del influyente
texto de biología celular de Edmund Wilson se defendía la idea de que la cromatina,
específicamente el ácido nucleico, era el material básico hereditario. Sin embargo, en la tercera
edición de 1925, retitulada The Cell in Development and Heredity, Wilson apostó por la proteína
cromosómica como material genético. El ácido nucleico quedo relegado a mero acompañante
estructural.
Dos razones aduce Hunter para este cambio de mentalidad. La primera, que las
técnicas de tinción citológica desarrolladas mostraban que el componente de ácido nucleico de
los cromosomas parecía difuminarse en ciertas fases del ciclo celular, mientras que el
componente proteico era estable. La segunda razón por la que, en opinión de Wilson, la
cromatina no podía ser el material genético es que aparecía, química y microscópicamente,
indiferenciada. Además, los ácidos nucleicos de plantas y de animales se mostraban
uniformes. Tal monotonía no podía ser la base de la herencia.
Y Kossel, en su Conferencia Harvey 1911, remachó:
«El número de Bausteine [bloque o unidades estructurales básicas] que pueden tomar parte en la
formación de las proteínas es casi tan grande como el número de letras en el abecedario. Si consideramos
que con la combinación de letras es posible expresar un sin fin de pensamientos, podemos suponer el
extraordinario número de propiedades [Emil Fischer calculó que el número posibles de estructuras
codificadas eran, aproximadamente, 2040] de un organismo que pueden registrase en el pequeño espacio
ocupado por las moléculas de proteínas»12.
nd
10.-Garrod AE (1923) Inborn Errors of Metabolism. 2 ed. Henry Frowde and Dodder & Stoughton,
London. On-line Facsimile Edition: Electronic Scholarly Pub. En: www.esp.org/books/Garrod/ inborn-
errors/facsimile (acceso: dic 02).
11.-Johannsen W (1909) Element der exalten Erblichkeitslehre. Gustav Fischer, Jena. (1911) The
genotype conception of heredity. The American Naturalist 45 (Nº 531), 129-159.
12.-Kossel A (1911) The chemical composition of the cell. Harvey Lecture Series 7, 33-51.
15
Propiedades que incluyen la herencia, como Kossel señaló en la Conferencia Herter de aquel
mismo año: «Podemos intuir como las peculiaridades de las especies pueden encontrar
expresión en la naturaleza química de las proteínas que constituyen la materia viva, y como
pueden transmitirse a través del material [proteínas] contenido en las células generativas»13. A
ello Phoebus Levene añadió, en 1917, que «los ácidos nucleicos son indispensables para la
vida […] pero no son los transportadores de los caracteres mendelianos»14.
Otra razón de peso que inclinó la balanza hacia el lado proteico de los genes fue el
importante papel biológico de las enzimas. El principal exponente de la correlación entre genes
y enzimas fue Leonard Thompson Troland. Tras estudiar bioquímica en el Instituto de
Tecnología de Massachussets, obtuvo un doctorado en psicología por Harvard en 1915. Un
año antes había publicado, en The Monist, un trabajo titulado «El origen químico y la regulación
de la vida», en el que identificaba “cinco misterios fundamentales del comportamiento vital”: el
origen de la materia viva, el origen de las variaciones orgánicas, las bases de la herencia, el
mecanismo del desarrollo y las bases de la regulación fisiológica en el organismo. Troland
pensó que una sola clase de sustancia era responsable de todos esos fenómenos:
«Enzimas y catálisis en general tienen la capacidad de participar en la producción de sustancias químicas
específicas […] un proceso en el que la presencia de un catalizador en una mezcla química favorezca la
producción del propio catalizador se conoce como autocatálisis».
La autocatálisis podría explicar el origen de la vida, porque una sustancia con esta
propiedad sería, automáticamente, capaz de producir numerosas copias de sí misma. La tesis
de Troland fue que la autocatálisis —autorreplicación— era una propiedad necesaria de los
genes, y que, en los sistemas biológicos sólo las enzimas tenían propiedades catalíticas. El
concepto de gen como una proteína autocatalítica dominó el pensamiento de los genetistas
durante una generación.
En 1866, el año de la publicación del trabajo de Mendel, nacía Thomas Hunt Morgan,
quién obtendría la plaza de profesor de zoología experimental en la Universidad de Columbia
en 1904 (FIGURA 3). Morgan creyó que las nuevas especies aparecían merced a la
acumulación de mutaciones discontinuas, cada una de ellas dentro del rango normal de las
variaciones naturales. Morgan eligió la mosca de la fruta —Drosophila melanogaster— como
modelo experimental. No logró detectar la primera mutante hasta 1910; durante el año 1911 se
identificaron diez nuevas mutantes. En 1912 su laboratorio —«The fly room»— era referencia
mundial sobre el tema, y al que se unieron tres primeras espadas: Alfred Sturtevant y Calvin
Bridges en 1910, y Hermann Muller en 1912.
En 1913, Sturtevant publicaba el primer mapa genético ubicando la localización de seis
genes. Luego, él mismo y Bridges comenzaron el mapeo de cromosomas 2 y 3. Cuando, en
1915, Morgan Sturtevant, Muller y Bridges publicaron su libro —de obligada referencia— El
Mecanismo Mendeliano de la Herencia, los mapas genéticos de los cromosomas 1
(cromosoma X), 2 y 3 estaban prácticamente concluidos.
Sturtevant obtuvo su Tesis doctoral en 1914, Muller en 1915 y Bridges en 1916. Esas
tres Tesis doctorales representaron, según una carta de Morgan a un discípulo años después,
«las piedras fundacionales de una nueva ciencia». En 1926, Morgan publicaba La Teoría del
Gen; libro al que pertenecen los siguientes párrafos:
____________________________________________________________________________
13.-Kossel A (1912) Lectures on the Herter Foundation. Johns Hopkins Hospital Bulletin 23, 65-76.
14.-Citado en: Hunter GE, pg 141 (v.b.s.).
16
«La teoría moderna de la herencia arranca de los datos numéricos obtenidos del cruce de dos individuos
que difieren en uno o más caracteres. La teoría se relaciona en principio con la distribución de unidades entre
sucesivas generaciones de individuos. En el mismo sentido en que el químico propone átomos invisibles y el
físico electrones, el estudioso de la herencia recurre a elementos invisibles denominados genes. El punto
esencial en esta comparación es que el químico y el estudioso de la herencia —el genetista— han llegado a
sus respectivas conclusiones a partir de datos numéricos y cuantitativos. Las teorías son consistentes en
cuanto que permiten la predicción numérica y cuantitativa de una clase específica. Ésta característica
esencial distingue la teoría del gen de otras teorías biológicas previas que también señalaron unidades
invisibles y a las que se asignaron propiedades pretendidas de manera arbitraria. La teoría del gen revierte
este orden y deduce las propiedades de los genes, de tal manera que les asigna propiedades a partir,
exclusivamente, de datos numéricos.
Debemos a Gregor Mendel el descubrimiento de dos de las leyes fundamentales de la herencia sobre las
que se basa la moderna teoría de la herencia. Trabajo posterior, realizado por otros autores durante este
siglo, ha supuesto un avance importante en la elaboración de la teoría sobre una base mucho más amplia.
[…]
Estamos ahora en situación para formular la teoría del gen. La teoría establece que los caracteres del
individuo se atribuyen a pares de elementos (genes) en el material germinal que se mantienen juntos en un
número definido de grupos ligados; establece que los miembros de cada par de genes se separan cuando las
células germinales maduran de acuerdo con la primera ley de Mendel, y en consecuencia cada célula
germinal contendrá un solo juego; establece que los miembros que pertenecen a diferentes grupos de
ligamiento se reparten independientemente de acuerdo con la segunda ley de Mendel; establece que también
ocurre, a veces, un intercambio ordenado —entrecruzamiento— entre los elementos que corresponden a
grupos de ligamiento; y establece que la frecuencia de entrecruzamiento aduce el orden lineal de los
elementos en cada grupo de ligamiento y la posición relativa de los elementos entre sí.
Esos principios, que, tomados en conjunto, he aventurado llamar teoría del gen, nos permiten manejar
problemas de genética sobre bases estrictamente numéricas, y nos permiten predecir, con bastante
precisión, lo que sucederá en una situación dada. Por todo ello la teoría cumple los requerimientos de una
teoría científica en sentido estricto. […]
¿Son los genes moléculas orgánicas? El único interés práctico de establecer tal discusión se refiere a la
naturaleza de su estabilidad. Por estabilidad podemos entender que el gen tiende a variar de un modo más o
menos definido, o podemos entender que el gen es estable en el sentido que una molécula orgánica lo es. El
problema genético se simplificaría si pudiera prevalecer la segunda interpretación. Si, por el contrario, el gen
es considerado como una mera cantidad de tal material, no daríamos contestación satisfactoria a porqué
permanece tan constante a través de todas las vicisitudes a que se ve sometido a menos que se apeláramos
a misteriosos poderes extragénicos de organización que los mantuvieran constantes. Existen pocas
esperanzas en el momento actual de zanjar la cuestión. Unos pocos años atrás intenté calcular el tamaño del
17
gen con la esperanza de que pudiera arrojar alguna luz sobre el problema, pero en la actualidad carecemos
de medidas suficientemente exactas para que tal cálculo no escape de la mera especulación. Pudiera intuirse
que el orden de magnitud del gen se aproxima al de una molécula orgánica de las de mayor tamaño. El gen
incluso podría no ser una molécula sino solo una colección de materia orgánica vinculada por otras fuerzas a
las implicadas en la combinación química.
Con todo es difícil sin embargo resistirse a la fascinante suposición de que el gen es constante porque
representa una entidad química orgánica. Es la suposición más simple que puede asumirse en el momento
actual, y dado que este punto de vista está de acuerdo con todo lo que se conoce en relación con la
estabilidad del gen parece, por lo menos, una buena hipótesis de trabajo.»
Por su parte, la primera gran contribución de Hermann Joseph Muller apareció publicada en
1922, en la revista American Naturalist —«Variación debida al cambio en genes individuales»,
sobre la base del material utilizado en una conferencia pronunciada, en 1921, en Toronto—, y
en donde intentó deducir la naturaleza química del gen. En relación con la propiedad
autocatalítica de los genes, señalada por Troland, Muller sugirió que «alguna manera especial
de construcción» era la responsable de la autocatálisis. Cambios hereditarios en los genes —
mutaciones— puede, indicó Muller, proporcionar una herramienta para analizar el «modo de
construcción». Muller recibió el Premio Nobel en Fisiología o Medicina 1946 por el
descubrimiento de la producción de mutaciones mediante irradiación con rayos-X.
Pero existía otra estrategia. Frederick Twort en 1915 y Felix d’Hérelle dos años
después, de manera independiente, descubrieron un tipo especial de agentes que inducían la
lisis de las bacterias y que, al igual que los genes, podían propagarse indefinidamente y,
aparentemente, experimentar mutaciones. Muller, en su publicación de 1922, reflexionó:
«Si los “cuerpos de d´Hérelle” son realmente genes, como los genes cromosómicos, nos proporcionan un
aproche completamente nuevo para abordar el problema de los genes […] ¿Debemos los genetistas
hacernos bacteriólogos, químicos fisiológicos y físicos, amén de ser zoólogos y botánicos?».
Veinticinco años después, Max Delbrück utilizó los cuerpos de d’Hérelle —entonces
denominados bacteriófagos— en su estrategia para abordar la estructura de los genes.
En la década de 1930s el gen seguía siendo una entidad hipotética. Como señalara
Delbrück «los genes eran las unidades algebraicas de la ciencia combinatoria de los
18
genetistas»15. Eran las x y las y utilizadas por los matemáticos para expresar cantidades
desconocidas en las ecuaciones; podían determinarse las relaciones entre genes, pero sin que
se conociera su naturaleza. Todo lo que se conocía sobre la naturaleza física de los genes era
que formaban ordenaciones lineales en los cromosomas; pero nada de su naturaleza química.
En 1936 Hermann Muller pronunció una conferencia en Moscú titulada «La física en el
abordaje de los problemas fundamentales de la genética»16. Los genes son —propuso Muller—
partículas submicroscópicas, probablemente de composición proteica, y acoplados unos a
otros en línea, conformando una sola fila y formando hebras sólidas. Además, el gen tenía dos
propiedades fundamentales: una autoatracción específica que podía inferirse de la propiedad
de entrelazamiento cromosómico, y autosíntesis. Muller intuyó que el gen, en cuanto
macromolécula, debería estar construido por bloques, y a efectos de autorreplicarse, esos
bloques deberían tener la propiedad de autoatracción. El modelo de Muller puede resumirse:
los genes consisten en series de bloques; la secuencia o disposición de esos bloques
diferencian un gen de otro; cambios en la secuencia de los bloques son la base de las
mutaciones; la atracción entre bloques similares permite la replicación génica.
Al final de su conferencia de 1921 Muller había sugerido la utilización de fagos para el
estudio de los mecanismos genéticos. En su disertación de 1936 apuntó mucho más allá;
Muller sugirió que:
«Las soluciones a los problemas generales de la composición del gen podrían encontrarse mediante el
estudio de los patrones de difracción de rayos-X, y de estudios paralelos realizados con los métodos de los
químicos».
ANÁLISIS QUÍMICO
15.-Delbrück M (1949) A physicist looks at biology. Transactions of the Connecticut Academy of Arts and
Science 38, 173-190.
16.-Muller HJ (1936) Physics in the attack on the fundamental problems of genetics. Scientific Monthly
44, 210-214.
19
Hermann Streudel de que las bases estaban presentes en cantidades equimolares, aunque ello
no fue universalmente aceptado.
La identificación de la estructura química de los ácidos nucleicos fue un problema
arduo. En las proteínas, los bloques de construcción son químicamente similares; todos ellos
tienen un grupo carboxilo (COOH) y otro amino (NH2). Si todos los aminoácidos se unen de la
misma manera, la única posibilidad real es formar enlaces entre el grupo COOH de un
aminoácido y el grupo NH2 del aminoácido siguiente —enlace peptídico— como fue previsto en
la estructura polipeptídica propuesta por Hofmeister y Fischer.
Para los ácidos nucleicos la situación es bastante más complicada. Sus azúcares tienen
varios grupos hidroxilo (OH) disponibles para formar enlaces, los anillos de las bases disponen
de átomos de carbono y de nitrógeno que son útiles puntos de acoplamiento y el ión fosfato
expone tres átomos reactivos de oxígeno: la posibilidad de combinación es impresionante.
Durante la década de 1910s se propusieron varias estructuras; todas ellas tenían en común la
presencia de las unidades nucleotídicas de Levene: fosfato-azúcar-base. En 1919 Levene
propuso una estructura para el ácido nucleico de la levadura que presentaba un esqueleto de
fosfato-ribosa al que se acoplaban las bases a través de la molécula de azúcar. Diez años
después se identificaron dos tipos de azúcares: D-desoxirribosa y D-ribosa y, en 1935, Levene
publico las estructuras de los ácidos ribosanucleico o ribonucleico (ARN) aislado de la
levadura, y desoxirribosanucleico o desoxirribonucleico (ADN) del timo. La estructura básica
era la anunciada en 1919; la molécula de pentosa (azúcar) se identificó como ribosa en el ARN
y como desoxirribosa en el ADN. Las estructuras de los ácidos nucleicos de 1935 fueron la
culminación de la carrera de Levene; el resultado de 35 años de trabajo.
La estructura del ADN de Levene y Tipson fue dibujada como un tetranucelotido,
conteniendo una unidad de cada una de las bases —adenina, citosina, guanina y timina— en
cantidades iguales, cuatro unidades de D-desoxirribosa y otras cuatro de fosfato. Levene había
postulado que tal estructura era la unidad estructural mínima y que la molécula de ácido
nucleico podía ser un múltiplo de aquella. Poco antes de morir Levene publicó, en 193818, que
el ADN nativo sedimentaba en la ultracentrífuga con peso molecular aparente de 200000 a
1000000. Fue la primera propuesta de una estructura macromolecular de los ácidos nucleicos,
que serían polímeros del tetranucelotido: [A-C-G-T]n.; carácter macromolecular corroborado por
Torbjörn Caspersson y Hammarsten. A pesar de todo ello, los ácidos nucleicos seguían sin ser
moléculas interesantes y, menos aún, candidatas al material genético; eran consideradas
meros elementos estructurales.
Sin embargo, la década de 1940s supuso un cambio de «paradigma». En 193719 Jack
Schultz, que se había trasladado desde el laboratorio de Morgan al de Caspersson, manifestó
que «la molécula Jano que es el gen replica su componente de ácido nucleico durante la
profase del ciclo celular y replica su componente proteico durante la interfase, de tal manera
que la unidad de síntesis es una nucleoproteína». Fueron numerosos los investigadores que
apoyaron la hipótesis nucleoproteica del gen; y más aún, que las propiedades específicas de la
nucleoproteína dependían tanto del ácido nucleico como de la proteína. Una figura importante
en la reevaluación del papel genético de los ácidos nucleicos fue John Masson Gulland,
profesor de química en la Universidad de Nottingham. Aunque aceptó la composición equi-
___________________________________________________________________________
20.-Gulland JM, Barker GR, Jordan DO (1945) The chemistry of the nucleic acids and
nucleoproteins. Annual Reviews in Biochemistry 14, 175-206.
21.-Chargaff E, Vischer E, Doniger R, Green C, Misani F (1949) The composition of the
desoxypentose nucleic acid of thymus and spleen. Journal of Biological Chemsitry 177, 405-416
(recibido para publicación: 1948). Vischer E, Zamenhof S, Chargaff E (1949) Microbial nucleic
acids: The desoxypentose nucleic acids of avian tubercle bacilli and yeast. Journal of Biological
Chemsitry 177, 429-438 (recibido para publicación en 1948).
22.-Zamenhof S, Chargaff E (1950) Dissymmetry in nucleotide sequence of desoxypentose
nucleic acid. Journal of Biological Chemistry 187, 1-14.
21
Al siguiente año, Chargaff discutía23:
«El ADN de esperma de salmón analizado proporciona un buen ejemplo de una serie de regularidades
señaladas en publicaciones anteriores de este laboratorio. Pertenece al “tipo AT” en el que adenina y timina
superan a guanina y citosina, particularmente en este ácido nucleico en un 40%. No sólo la relación de
purinas a pirimidinas sino también la de adenina y timina respecto a guanina y citosina es, prácticamente, 1.
Dado que el número de ejemplos de tal regularidad incrementa, la pregunta que se hace pertinente es si tal
relación es meramente accidental o si es una expresión de ciertos principios estructurales que son
compartidos por muchos ácidos desoxipentosanucleicos; ello, a pesar de diferir ampliamente en su
composición individual y en ausencia de una periodicidad reconocible en su secuencia nucleotídica. No es el
momento de intentar contestarla».
27.-Avery OT, MacLeod CM, McCarthy M (1944) Studies on the chemical nature of the substance
inducing transformation of Pneumococcal types. Induction of transformation by a desoxyribonucleic acid
fraction isolated from Pneumococcus Type III. Journal Experimental Medicine 79 (2), 137-159 (recibido
para publicación: nov 1943).
23
condiciones bien definidas y adecuadamente controladas es la transformación de tipos específicos de
Pneumococos. Este fenómeno fue descrito por primera vez por F. Griffith quién tuvo éxito al transformar una
variante atenuada y no encapsulada (R) derivada de un tipo específico en células completamente
encapsuladas y virulentas (S) de un tipo específico heterólogo […]
El presente trabajo se ocupa mediante un detallado análisis del fenómeno de transformación de tipos
específicos de Pneumococos. El principal interés se ha centrado en intentos para aislar el principio activo de
extractos bacterianos crudos y para identificar en lo posible su naturaleza química o al menos caracterizarlo
suficientemente para ubicarlo en un grupo general de sustancias químicas conocidas. Para el propósito del
estudio el ejemplo típico de transformación elegido como modelo de trabajo es uno con el que tenemos gran
experiencia y que parece el más adecuado para el análisis. Este ejemplo particular representa la
transformación de una variante R no encapsulada de Pneumococo Tipo II a otra de Pneumococo Tipo III […]
RESUMEN. 1. Se ha aislado de Pneumococo tipo II una fracción biológicamente activa y sumamente
purificada que, en cantidades mínimas, es capaz, en condiciones de cultivo apropiadas, inducir la
transformación de variantes R no capsulazas de Pneumococos tipo II en células completamente capsuladas
del mismo tipo específico que el de los microorganismos matados por calor de los que se extrajo el material
inductor. 2. Se describen los métodos de aislamiento y de purificación del material transformante activo. 3.
Los datos obtenidos mediante análisis químico, enzimático y serológico junto con los resultados de estudios
preliminares por electroforesis, ultracentrifugación y espectroscopia ultravioleta indican que, dentro de los
límites de los métodos, la fracción activa no contiene proteína, lípido libre o polisacárido serológicamente
reactivo demostrables, y consiste principalmente, si no exclusivamente, de una forma viscosa, sumamente
polimerizada, de ácido desoxirribonucleico. 4. Las pruebas indican que las alteraciones inducidas
químicamente en la estructura y función celulares son predecibles, tipo-específicas y transmisibles en series.
Se revisan las diferentes hipótesis propuestas respecto a la naturaleza de tales cambios.
CONCLUSIÓN. Las pruebas presentadas apoyan la creencia de que un ácido nucleico del tipo de la
desoxirribosa es la unidad fundamental del principio transformador del Pneumococo Tipo III».
28.-Reichard P (2002) Osvald T. Avery and the Nobel Prize in Medicine (Reflections: A paper in a series
commissioned to celebrate the Centenery of the JBC in 2005) Journal of Biological Chemistry 277 (16),
13355-13362.
24
mecanismo de acción de las enzimas oxidantes— y Caspersson lo fue también durante esos
años. No debe extrañar que ante tales circunstancias ni Theorell ni Caspersson apoyaran la
candidatura de Avery.
Sin embargo, Oswald T. Avery fue nominado candidato —junto con Michael
Heidelberger— al Premio Nobel de Fisiología o Medicina año tras año por su descubrimiento
de que la especificidad antigénica del pneumococo tipo III depende de su cubierta de
polisacáridos y no –como se creía- de una proteína de la superficie. Su trabajo demostró la
especificidad biológica de los polisacáridos. Muchos científicos criticaron esta conclusión; ello
sobre la base de sugerir una contaminación proteica. Tal objeción fue refutada en trabajos
posteriores y, antes de 1946, el trabajo fue evaluado, entre otros, por Hammarsten. En
cualquier caso, el trabajo no se consideró merecedor de un Premio Nobel. En 1946 las
nominaciones comenzaron a considerar el trabajo de Avery sobre la transformación bacteriana
por ADN, pero Hammarsten lo criticó arguyendo que el ADN de Avery estaba contaminado con
proteína y era ella el agente transformador. La historia volvió a repetirse.
Hammarsten, quién había demostrado la naturaleza macromolecular del ADN —al que
contemplaba como un simple tetranucelotido—, defendía la naturaleza proteica del gen. Ello a
pesar de que las variaciones en la secuencia de bases apuntaban el requerimiento estructural
de la especificidad biológica. Este concepto fue reforzado —comenta Peter Reichard— en un
seminario organizado por Edwin Chargaff durante una visita a Estocolmo en 1947. Sus análisis
del ADN mediante cromatografía en papel demostraron las llamativas variaciones en la
composición de bases del ADN de varios organismos. Chargaff aplaudió los resultados de
Avery y le propuso para el Premio Nobel. ¿Por qué Hammarsten no aceptó las conclusiones de
Avery? Primero por su experiencia personal de que las proteínas siempre contaminaban sus
muestras de ADN y, segundo, influido por el modelo de Caspersson de las interrelaciones
metabólicas entre proteínas y ácidos nucleicos que asignaba un papel secundario a los últimos.
Además, Avery no defendió su trabajo con ardor. Según Maclyn McCarthy, Avery tenía una
personalidad sosegada e introvertida; hombre modesto y enemigo de la especulación.
Una vez retirado Avery, otros continuaron su trabajo que, pronto, se vio confirmado. En
el Instituto Rockefeller, Rollin Hotchkiss29 transfirió resistencia a la penicilina con ADN de cepas
resistentes de pneumococos. André Boivin30, en París, publicó que ADN inducía mutaciones en
Escherichia coli. Hattie Alexander y Grace Leidy31 señalaron la transformación mediada por
ADN en Haemophilus, y, por otro lado, Boivin y Vendrely32 encontraron que todas las células
diploides de mamíferos contienen la misma cantidad de ADN: el doble del contenido en células
haploides; un hecho paralelo al aceptado de que las células germinales contienen la mitad de
genes que las células somáticas. Sin embargo, el viejo paradigma de que los genes eran
proteínas y que el ADN solo proporcionaba un soporte estructural durante la replicación génica,
resistió. En 1952, Malogren reevaluó el trabajo de Avery a la vista de los trabajos que lo
____________________________________________________________________________
EL “GRUPO FAGO”
Niels Bohr, quién recibió el Premio Nobel de Física 1922, por sus servicios en la
investigación de la estructura de los átomos y de la radiación que de ellos emana, tuvo un gran
interés por la filosofía. Hijo de un fisiólogo, aceptó dar una conferencia en el Congreso de
Fototerapia de Copenhague, en 1932. Niels Bohr eligió hablar sobre filosofía de la biología;
conferencia que publicaría con el título «Luz y Vida»33. Bohr centró la conferencia sobre uno de
los principios básicos de la mecánica cuántica: el principio de complementariedad. Aunque es
posible determinar la localización o la velocidad de una partícula subatómica —por ejemplo, un
electrón—, no es posible determinar ambas simultáneamente porque el acto de medida
perturba el sistema. Las técnicas que analizan la posición de un electrón alteran su velocidad;
las técnicas que miden la velocidad alteran la posición. Localización y velocidad son
____________________________________________________________________________
La biología tiene la lleve para una nueva física. Esta interpretación errónea —comenta
35
Hunter — del mensaje de Bohr fue —paradójicamente— el efecto más significativo de «Luz y
Vida». En 1932, Delbrück, aún físico, participó en un grupo de discusión en el que participaron
Nikolai Timoféeff-Resovsky, genetista de Drosophila, y el radiobiólogo Karl Zimmer.
Consecuencia de ello fue un trabajo titulado «Sobre la naturaleza de la mutación y la estructura
del gen»36 que publicaron en una revista prácticamente desconocida; el trabajo fue conocido
como el «Three-Man-Work» y, también, por el color de la cubierta de las separatas, como el
«Green Paper» —la «publicación verde»—. La contribución de Delbrück fue el apartado titulado
«Modelo físico-atómico de la mutación del gen»; el principal mensaje de la publicación fue que
la estabilidad del gen se debía a la fortaleza de las fuerzas interatómicas, mientras que su
mutación se debía a un salto cuántico desde una configuración estable a otra. A pesar de que
todas las observaciones resultaron ser falsas, el «Green Paper» ocupa, para numerosos
autores, un lugar importante en la historia de la biología. Una de las copias llegó a poder del
físico Edwin Schrödinger.
Schrödinger nació en Viena en 1887. En 1927 sucedió a Max Plank como profesor de
física teórica en la Universidad de Berlín. En 1933, año en que compartió la mitad del Premio
Nobel de Física 1933 con Paul Adrien Maurice Dirac, por el descubrimiento de nuevas formas
de la teoría atómica (la otra mitad del Premio se otorgó a Werner Heisenberg por la creación de
la mecánica cuántica), se trasladó a Oxford. Retornó a Alemania y, en 1938 se exiló
definitivamente en Irlanda. Una de las obligaciones de su puesto en el Instituto de Estudios
____________________________________________________________________________
Por su parte, el espíritu del «Green paper» queda reflejado en el apartado «Mutaciones
discontinuas: Material de trabajo de la selección natural»:
«No obstante, el holandés Hugo de Vries descubrió hace unos cuarenta años que incluso en la
descendencia de cepas realmente puras, un número muy pequeño de individuos, algo así como dos o tres
entre varias decenas de miles, aparece con cambios pequeños pero que suponen una especie de “salto”. La
expresión “salto” no quiere significar que el cambio sea especialmente importante, sino que supone una
discontinuidad en el sentido de que no hay formas intermedias entre la forma inalterada y los pocos
individuos que han cambiado. Tras su observación, de Vries les dio el nombre de mutaciones. El hecho
significativo es la discontinuidad. Al físico le recuerda la teoría cuántica, según la cual no hay energías
intermedias entre dos niveles energéticos contiguos. Podríamos llamar a la teoría de la mutación, de forma
figurada, la teoría cuántica de la biología. Más adelante veremos que tal denominación es mucho más que
figurativa. Las mutaciones se deben, de hecho a saltos cuánticos en las moléculas del gen. Pero la teoría
cuántica sólo tenía dos años cuando de Vries publicó su teoría de la mutación, el año 1902. No es, pues,
extraño que se necesitase una generación más para descubrir la íntima relación entre ambas».
Schrödinger planteó dos ideas características del gen: su estructura de «sólido aperiódico» —
un polímero compuesto de unidades diferentes—, y la de «incorporar una escritura codificada»
capaz de recrear el plan corporal total del organismo a partir de una sola célula. Respecto a lo
primero, en el apartado «La distinción es lo que importa», puede leerse:
«Una molécula pequeña podría ser denominada “el germen de un sólido”. Partiendo de uno de esos
pequeños gérmenes sólidos parecen existir dos caminos diferentes para construir asociaciones cada vez
mayores. Uno de ellos, bastante rudimentario en comparación, consiste en repetir una y otra vez la misma
estructura en tres direcciones. Es el elegido en el caso de un cristal en crecimiento. Una vez establecida la
periodicidad, no se presenta un límite definido para el tamaño del agregado. El otro camino consiste en ir
construyendo un agregado cada vez más extenso sin el torpe recurso de la repetición. Este es el caso de las
moléculas orgánicas, cada vez más complicadas, en las que cada átomo y cada grupo de átomos,
desempeña un papel individual, no enteramente equivalente al de muchos otros (como en el caso de la
estructura periódica). Con pleno fundamento podríamos llamarlo un cristal o sólido aperiódico y expresar
nuestra hipótesis diciendo: Creemos que un gen –o tal vez toda la fibra del cromosoma- es un sólido
aperiódico».
El «Green paper» también sirvió para que Delbrück abandonase Alemania en 1937. La
Fundación Rockefeller, a través del programa de ayuda a universitarios europeos perseguidos
por racismo o ideas políticas, le facilitó la entrada en el laboratorio de Thomas Morgan, pero la
mosca le pareció un modelo demasiado complejo para su pretensión de aplicar una estrategia
física a sus intereses en genética. Un año después se asoció con Emory Ellis, quién trabajaba
con bacteriófagos. Delbrück vio en los fagos el modelo perfecto para estudiar la naturaleza del
gen y su replicación.
En 1940, tras un encuentro y breve colaboración con Linus Pauling, Delbrück contactó
con el físico italiano —reconvertido en biofísico— Salvador Luria y con Alfred D. Hershey, un
investigador en fagos de la Universidad de Washington, en St. Louis. Ellos tres formaron en
meollo de lo que llegaría a conocerse como el «Grupo Fago», y los tres recibieron el Premio
Nobel en Fisiología o Medicina 1969 por sus descubrimientos relacionados con los
mecanismos de replicación y la estructura genética de los virus. Uno de los doctorandos de
Luria fue James Dewey Watson quién, en 1950, obtuvo su Doctorado en zoología con una
Tesis sobre el efecto de los rayos-X sobre la multiplicación de los bacteriófagos. En 1952,
Alfred D. Hershey y Martha C. Chase (FIGURA 6) publicaron un trabajo —«Funciones
independientes de la proteína y del ácido nucleico virales en el crecimiento del bacteriófago»—
que disipó cualquier duda sobre el papel genético del ADN:
Las dieciocho citas aportadas por Hershey y Chase no incluyen el trabajo de Avery,
MacLeod y McCarthy. El historiador de la ciencia Nicholas Mullins38 hizo notar que los
«componentes del Grupo del fago solían leer y utilizar ideas, exclusivamente, de los miembros
del grupo». Numerosos científicos e historiadores —Francis Crick, Joseph Fruton, Joshua
Lederberg, Robert Olby, Hunter Stent— han hecho notar que las pruebas aportadas por
Hershey y Chase a favor del protagonismo genéticos del ADN fueron menos concluyentes que
las presentadas por Avery y sus colaboradores.
____________________________________________________________________________
37.-Hershey AD, Chase M (1952) Independent functions of viral protein and nucleic acid in growth of
bacteriophage. Journal of General Physiology 36, 39-56.
38.-Citado en: Hunter GE, pg 295 (v.b.s.).
30
LA ESTRUCTURA DEL ADN
La estructura del ADN se asentó sobre tres pilares: los estudios de difracción de rayos-
X de las macromoléculas, la regla «1:1» de Chargaff y el tautomerismo de las bases
nitrogenadas. La función del ADN como material genético derivó de los estudios de Avery y de
Hershey, y del mecanismo de copia sobre la base del apareamiento específico de las bases en
el modelo estructural. Estructura y función van de la mano.
La difracción de rayos X inició su andadura en el análisis estructural de la mano de Max
von Laue quién estudió, en la Universidad de Frankfurt, dicho fenómeno en los cristales; ello
que le valió el Premio Nobel de Física 1914. La importancia del tema hizo que, al siguiente año,
el Premio recayera en William Henry Bragg y William Lawrence Bragg Jr., por sus servicios en
el análisis de los cristales mediante rayos X.
Desde finales de la década de 1930, la técnica, en su orientación hacia la materia
orgánica, estaba bien implantada. En Inglaterra: W.L. Bragg, Max Perutz y John Kendrew, en el
laboratorio Cavendish de la Universidad de Cambridge (Francis Crick se uniría a este grupo en
1949); Dorothy Crowfoot, en la Universidad de Oxford; William Thomas Astbury, en la
Universidad de Leeds; John Desmond Bernal, en el Birkbeck College en Londres. En Norte
América, Linus Pauling, Robert B. Corey y su grupo de cristalografía del Instituto Tecnológico
de California. El grupo de Pauling realizó un estudio sistemático de difracción de rayos X sobre
cristales de compuestos orgánicos: aminoácidos, péptidos y proteínas, esencialmente de
carácter fibroso. No fueron los únicos en este esfuerzo, pero sí los más afortunados39.
En 1951, el grupo de CalTech presentó datos relativos a distancias y ángulos de enlace
en cadenas polipeptídicas; elaboró un modelo para una estructura helicoidal (α-hélice) presente
en proteínas fibrosas, en el que la hélice estaría estabilizada por enlaces de hidrógeno, y, poco
tiempo después, propuso la estructura en lámina plegada antiparalela (lámina β) como otra
conformación posible de las proteínas. La α -hélice y la lámina β resultaron ser conformaciones
habituales de las proteínas, con lo que la difracción de rayos X sentó las bases para la
estructura de las macromoléculas, y Linus Pauling (FIGURA 7a) recibió el P.N. Química 1954
por su trabajo sobre la naturaleza del enlace químico y su aplicación al estudio de la estructura
de las sustancia complejas. El enlace químico40 sería pieza clave en la estructura del ADN.
41.-Astbury WT, Bell FO (1938) X-ray study of thymonucleic acid. Nature 141 (Nº3573), 747-8. Astbury
WT (1939) X-Ray studies of the structure of compounds of biological interest. Annual Reviews in
Biochemistry 8, 113-132.
42.-Furberg S (1949) Tesis doctoral. Citada por R Olby (v.b.s.), pg 339. Furberg S (1950) An X-ray study
of the stereochemistry of the nucleosides. Acta Chemica Scandinavica 4, 751-761. X-ray studies on the
decomposition products of the nucleic acids. Transactions of the Faraday Society 46, 791. Furberg S
(1952) On the structure of nucleic acids. Acta Chemica Scandinavica 6, 634-640.
32
≤75% predominaba un patrón de difracción «cristalino»; con un índice ≥ 95% se observaba un
patrón «paracristalino». Las formas cristalina —seca— y paracristalina —hidratada— del ADN
se denominaron «A» y «B», respectivamente; el ADN-B remeda la situación fisiológica del ADN
en el núcleo celular. Hasta ese momento, los cristales de ADN utilizados por Astbury y otros
investigadores contenían una mezcla de esas dos formas, lo que, de hecho, complicó la
interpretación de los datos experimentales (FIGURA 9).
En esta situación, Linus Pauling no podía sustraerse al estudio de las fibras de ADN;
máxime cuando intuía que el procedimiento utilizado en el estudio de la estructura de las
cadenas polipeptídicas podría considerarse para la fibra de ADN. En efecto, en 1952, Pauling y
Verter Schomaker43 publicaron sus primeras impresiones acerca de la estructura del ADN. Y en
febrero de 1953, Pauling y Corey aportaban una corta nota en Nature44 —«Estructura de los
ácidos nucleicos»—, que ampliarían en las Actas de la Academia de Ciencias de EE.UU.. El
artículo fue enviado a finales de diciembre de 1952, pero fue corregido en febrero el mismo
___________________________________________________________________________
43.-Pauling L, Shomaker V (1952) On a phospho-tri-anhydride formula for the nucleic acids. Journal
of the American Chemical Society 74, 1111 y 3712-3713.
44.-Pauling L, Corey RB (1953) Structure of the nucleic acids. Nature 171, 346.
33
mes de su publicación. De acuerdo con sus notas45, 46, Pauling comenzó experimentando con
una estructura de dos cadenas, pero tres de ellas ajustarían mejor los cálculos de densidad
efectuados. A diferencia de los modelos de Watson y Crick de 1951, y del modelo de Astbuty
de «pilas de monedas», Pauling no prestó atención a la atracción electrostática entre las bases;
sin embargo, introdujo el enlace de hidrógeno entre los grupos fosfato:
«Hemos formulado una estructura para los ácidos nucleicos que es compatible con los principales hechos
del diagrama de rayos X y con los principios generales de la estructura molecular, y que cumple
satisfactoriamente algunas de las propiedades químicas del compuesto. La estructura incluye tres cadenas
polinucleotídicas helicoidales enrolladas entre sí. Cada cadena, que está formada por grupos fosfato
engarzados por restos de azúcar, tiene aproximadamente 24 nucleotidos en siete vueltas de hélice. Las
hélices son dextrógiras. Los grupos fosfato están densamente empaquetados alrededor del eje de la
molécula, con las pentosas rodeándoles, y los grupos púricos y pirimidínicos proyectándose radialmente y
siendo sus planos aproximadamente perpendiculares al eje de la molécula».
45.-Pauling L, Corey RB (1953) A proposed structure for the nucleic acids. Proceedings of the National
Academy of Sciences USA 38, 84-97 (Aceptado para su publicación: 31 diciembre 1952).
46.-Citado en: Olby R, pg 380 (v.b.s.).
47.-Judson HF, pg 7 (v.b.s.).
48.-Andrade ENC (1887-1971) Físico británico. Estudió en el University Colege de Londres y en
Heidelberg, donde realizó el doctorado. Trabajó con Ernest Rutherford, en Manchester, entre 1911 y
1914. Ocupó la cátedra de Física en el University College (1928-1950), dirigiendo la Royal Institution
entre 1950 y1952. Jugó un papel importante en el inicio –1938- de la monumental tarea de la publicación
de las cartas de Newton.
34
Poco más de un mes de la llegada de Watson al Cavendish, tuvo lugar una fuerte
discusión entre Crick y el Director del laboratorio, Bragg; ello, al ignorar éste una teoría
____________________________________________________________________________
Propusieron una estructura helicoidal formada por tres cadenas, que se mantenían
unidas a través de los grupos cargados de los esqueletos de fosfato. Rechazaron el papel de
los enlaces de hidrógeno en la estabilización de la estructura, mientras que exageraron el
protagonismo de los cationes. Una visita a Cambridge del grupo del King’s echó por tierra el
modelo tricatenario propuesto. Lawrence Bragg no estaba dispuesto a que el afamado
Cavendish Laboratory se asociara con la idea de «estructuras incorrectas». Desaprobó el
trabajo de Watson y Crick y consideró que estaban invadiendo el «territorio» del King’s. De una
conversación entre Bragg y Randall salió la recomendación de que la estructura del ADN
debería dejarse en manos del grupo del KIng’s y que Watson y Crick deberían centrarse en el
estudio de proteínas. Pero no pasó de la recomendación. Por su parte, la beca de Watson
finalizaba en otoño de 1952. Gracias a Puling, Watson pudo permanecer en Cambridge hasta
la resolución de la estructura del ADN.
Crick opinó al respecto53:
«Nuestro primer intento con un modelo fue un desastre, porque yo supuse erróneamente que la estructura
contenía muy poco agua. Este error fue debido en parte a mi ignorancia –debería haberme dado cuenta de
que era probable que el ión sodio estuviera muy hidratado- y en parte a la interpretación equivocada de Jim
con respecto a un término cristalográfico que Rosalind empleó en un seminario. Este no fue el único error.
Despistado por la expresión “formas tautoméricas”, asumí que determinados átomos de hidrógeno en la
periferia de las bases estarían en una de las diversas posiciones posibles. Finalmente, Jerry Donohue, un
cristalógrafo estadounidense que compartía un despacho con nosotros, nos dijo que algunas fórmulas de los
libros de texto estaban equivocadas y que cada base existía casi exclusivamente en una forma determinada.
A partir de entonces, todo fue fácil».
Tres meses duró el asalto final: el primer trimestre de 1953. Hasta entonces, todos los
intentos para construir modelos de ADN se basaron en la presencia de una o de tres hélices.
___________________________________________________________________________
52.-En: www.mun.ca/biology/scar/4241/W&C5.html.
53.-Crick F, pgs 79-80 (v.b.s., v.c.).
39
Pauling consideró la posibilidad de construir una doble hélice en 1952, pero optó por la triple
hélice. Por su parte, en el modelo de Furberg se intuye una clara similitud con el que
construirían, meses después, Watson y Crick. Sin embargo, el modelo I de Furberg no fue una
doble hélice, y se sugirió como una entre dos alternativas. Para Furgerg, los ácidos nucleicos
ocurrían en formas monocatenarias, y aunque se desconocía su estructura, tales cadenas bien
podían adoptar una configuración helicoidal, tal como establecía su modelo. También abogó
por la presencia de enlaces de hidrógeno. Estando tan cerca de resolver la estructura, fue una
pena que Bernal no consiguiera retenerlo con él o, al menos, que hubiera seguido trabajando
en Oslo en colaboración con el grupo de Birkbeck.
Los comienzos de 1953 fueron generosos con la pareja del Cavendish. En mayo de
1952, Franklin había conseguido las mejores imágenes de ADN por difracción de rayos X hasta
entonces conocidas; ello, manejando las muestras de ADN de gran pureza proporcionadas, en
su momento, por Rudolf Signer. En otro momento, Franklin escribiría el informe preceptivo del
año 1952 para el director del King’s. Watson visitó el laboratorio londinense la última semana
de enero de 1953; allí, Wilkins le mostró una de aquellas fotografías: la número 51 del
cuaderno de notas de Franklin, que correspondía a la forma paracristalina o forma B de ADN.
Watson escribió54:
«En cuanto vi la fotografía quedé boquiabierto y se me aceleró el pulso. La figura resultaba increíblemente
más sencilla que las obtenidas con anterioridad, es decir, las de la forma A. Además, los reflejos negros en
forma de cruz que dominaban la fotografía sólo podían provenir de una estructura helicoidal. Con la forma A,
el argumento a favor de una hélice nunca había sido concluyente, y existía cierta ambigüedad en cuanto a
que tipo de simetría helicoidal estaba presente; en cambio, la simple inspección de la fotografía con rayos X
de la forma B permitía descubrir en ella varios de los parámetros helicoidales vitales. Concebiblemente, tras
unos cálculos de sólo unos pocos minutos, podría determinarse el número de cadenas de la molécula».
Pero, ¿Cuántas cadenas? Watson apunto «que las estructuras biológicas importantes
se presentan por parejas»55; pero no era obvio. Por otro lado, durante la segunda semana de
febrero, Perutz ¿ó Wilkins? pasó a Crick una copia del informe que Sir John Randall había
distribuido a todos los miembros del Biophysics Research Committee y que habían visitado el
Cavendish en diciembre. El informe recogía el cambio en la periodicidad a lo largo del eje de la
fibra de ADN —desde 28 Å a 34 Å— observado entre las formas A y B; ello, debido a que la
hidratación de la forma paracristalina B suponía un estiramiento de la fibra cercano al 20%, con
respecto a la forma cristalina. A partir de todo ello fue posible confirmar —para la forma B— la
distancia entre las bases (3.4 Å), y establecer la longitud del periodo (34 Å) y la pendiente de la
hélice (36º). El informe también aportaba datos sobre las características del cristal: existía un
doble eje de simetría paralelo al de la fibra.
Cuando Crick estudió el informe se percató de una simetría que ni Franklin ni Wilkins
habían comprendido; que Perutz no había percibido, y que se le había escapado al
cristalógrafo teórico del Kíng’s, Alexander Stokes: que la molécula de ADN, tras rotar media
vuelta, volvía a ser congruente consigo misma. La estructura era diádica: la mitad longitudinal
de la molécula es similar a la otra mitad al revés.
«Ello fue el hecho decisivo. Las dimensiones de la celda unidad primitiva (cada unidad de volumen mínimo
que puede definirse para una red cristalina dada; para la doble hélice de ADN, el par de bases) que figuraban
en el informe, probaban que la diada tenía que ser perpendicular al eje longitudinal de la molécula, y,
también, que la duplicación ocurría dentro de la misma molécula y no entre moléculas adyacentes. Las
_______________________________________________________________________________________
Para Crick, los que corrían hacia arriba y hacia abajo eran los dos esqueletos formados
por las moléculas de azúcar engarzadas mediante enlaces fosfato-diestéricos. De la simetría
diádica de la molécula se desprendía que la disposición tridimensional de los esqueletos era
espiroidea alrededor de un núcleo central formado por las estructuras diádicas. Sobre esta
idea, para completar una estructura helicoidal bicatenaria sólo faltaba definir cómo se disponían
las diadas —los pares de bases «simétricos»—- en el centro de la estructura.
Watson consultó el libro de Davidson La Bioquímica de los Ácidos Nucleicos57, del que
copió las fórmulas estándar (fundamentalmente en forma enólica) de las bases del ADN.
Luego, consultó el trabajo de June Broomhead58 en el que encontró o lo que Watson interpretó
como un patrón regular de enlaces de hidrógeno entre bases. Con esas dos referencias,
Watson intentó cuadrar un modelo de doble hélice estabilizada por pares de bases en el centro
de la estructura. Pero cometió varias omisiones: una, asumir, como hiciera Crick en el modelo
de 1951, formas tautoméricas erróneas; y, otra, ignorar la regla «1:1» de Chargaff. Cuando
Watson y Crick mostraron el modelo a Jerry Donohue, señaló que las bases en los ácidos
nucleicos ocurren en dos formas tautoméricas (FIGURA 13). Adenina, citosina y guanina pueden
existir en formas amino (-NH2) o imino (=NH), y citosina, guanina y timina pueden hacerlo como
ceto (C=O) o hidroxi (C-OH). La naturaleza prefiere —les indicó Donohue— las formas ceto y
amino. Watson utilizó las formas tautoméricas erróneas de todas las bases, excepto la adenina.
Con tal corrección presente, Crick encargó al matemático John Griffith los cálculos de los
posibles enlaces. Cuando rehicieron los modelos con las indicaciones de Donohue y de Giffith,
encontraron que se establecían enlaces de hidrógeno entre adenina y timina y entre guanina y
citosina, pero sólo si los pares estaban invertidos uno respecto al otro. De golpe, ello satisfacía
las reglas de Chargaff y los datos de la fotografía nº 50 de difracción de rayos X, obtenida por
Franklin en mayo de 1952, en la que se evidenciaba la disposición antiparalela de ambas
cadenas. Y también hacía valer la idea de Pauling de complementariedad molecular: la
especificidad del apareamiento de las bases significa que cada cadena es complementaria a su
compañera. Y ello dio pie al mecanismo de replicación propuesto.
En julio de 1940, Max Delbrück y Linus Pauling publicaron un ensayo en Science con el
título La naturaleza de las fuerzas operativas intermoleculares en los procesos biológicos59.
Dos años antes, el físico alemán P. Jordan había publicado varios artículos en los que proponía
la idea de que existe una interacción estabilizadora mecanocuántica —el fenómeno de
resonancia— que opera de manera preferente entre moléculas o parte de ellas, idénticas o
cuasi idénticas; fenómeno que es capaz de influir sobre el proceso de síntesis molecular
biológica, de tal manera que se forman réplicas de las moléculas que están presentes en la
célula. Jordan utilizó la idea sugiriendo explicaciones de la reproducción de los genes, el
crecimiento de los bacteriófagos, la formación de anticuerpos, y cualquier otro fenómeno
biológico que muestre especificidad. La novedad de su trabajo residía en su sugerencia de que
la resonancia mecanocuántica podría provocar la atracción entre moléculas que contuvieran el
___________________________________________________________________________
60.-Pauling L (1970) Fifty years of progress in structural chemistry and molecular biology. Daedalus 90,
988-1014 (pgs 1007 y 1008).
42
A mediados de marzo de 1953, Watson escribió61 a Delbrück dándole toda clase de
detalles:
«Querido Max, Gracias por tu reciente correspondencia […] Al día siguiente de la llegada de tu carta, recibí
una nota de Pauling mencionando que había revisado su modelo, y mostrándome su interés por el nuestro.
Le escribiremos en breve sobre lo que estamos haciendo. Por ahora preferimos no hacerlo pues no
queremos comprometernos hasta que estemos completamente seguros de que todos los contactos de van
der Waals sean los correctos y que todos los aspectos de nuestra estructura son estereoquímicamente
asequibles. Creemos estar seguros de que nuestra estructura puede construirse, y estamos actualmente
ocupados en calcular las coordinadas atómicas exactas.
Nuestro modelo (un proyecto conjunto de Francis Crick y mío) no comparte relación alguna ni con el
modelo original ni con su versión revisada de Pauling-Corey-Schomaker. Es un modelo peculiar que asume
una serie de hechos poco usuales […] Las principales características del modelo son (1) La estructura básica
es helicoidal —consta de dos hélices enrolladas entre sí— estando el centro de la hélice ocupado por las
bases púricas y pirimidínicas— los grupos fosfato se orientan hacia el exterior. (2) Las hélices no son
idénticas sino complementarias, de tal manera que si una de las hélices contiene una base púrica la otra
hélice contendrá una pirimidina —este hecho es resultado de nuestro empeño de hacer equivalentes a los
residuos y, al mismo tiempo, colocar las bases púricas y pirimidínicas en el centro—. El emparejamiento de la
purina [s] con pirimidinas es muy exacto y viene dictado por su apetencia para formar enlaces de hidrógeno
—adenina formará pareja con timina, mientras guanina siempre formará pareja con citosina— […] Esas
parejas forman dos bellos enlaces de hidrógeno en los que todos los ángulos son rectos. Este
emparejamiento se basa en la existencia de sólo una de dos posible formas tautoméricas —en todos los
casos hemos preferido la forma ceto sobre la enol, y la forma amino sobre la imino—. Ello es, en definitiva,
una suposición, aunque Jerry Donohue y Hill Cochran nos dijeron que en todas las moléculas orgánicas
examinadas, las formas ceto y amino se presentan con preferencia a las posibilidades enol e imino.
El modelo ha derivado, casi enteramente, de consideraciones estereoquímicas, con la única referencia a
los rayos X de que el espaciamiento entre los pares de base es de 3.4 Å, que fue calculado originalmente por
Astbury. Ello tiende a una construcción con, aproximadamente, 10 residuos por vuelta en 34 Å. La hélice es
dextrógira.
El patrón de rayos X concuerda, aproximadamente, con el modelo, pero dado que las fotografías de que
disponemos son pobres y escasas (no disponemos de fotografías propias y, como Pauling, utilizamos las de
Astbury), tal argumento no constituye una prueba de nuestro modelo […] Para ello, debemos obtener la
colaboración del grupo del King’s Collage de Londres que posee excelentes fotografías de una fase cristalina
además de disponer de fotografías de gran calidad de una fase paracristalina. Nuestro modelo se ha
construido con referencia a la forma paracristalina, y aún no tenemos ideas claras de cómo las hélices
pueden empaquetarse para formar la fase cristalina.
Mañana mismo Crick y yo enviaremos una nota a Nature proponiendo nuestra estructura como un modelo
posible, a la vez que señalamos su naturaleza provisional y la carencia de pruebas a su favor. Aún si
resultase erróneo creo que es interesante dado que aporta un ejemplo concreto de una estructura compuesta
de cadenas complementarias. Si por azar es correcto entonces, me atrevo a decir que podemos aportar algo
a la manera en que el ADN puede autorreproducirse. Por estas razones (aparte de otras muchas) prefiero
este tipo de modelo al de Pauling que, si fuera correcto, nada nos diría sobre la manera de reproducirse el
ADN. P.S. Preferiríamos que no mencionara esta carta a Pauling. Cuando nuestra carta a Nature esté
concluida le enviaremos una copia. Watson, 12, marzo 1953».
A la vista de la nota que Watson y Crick habían enviado a Nature, Rosalind Franklin y
Raymond Gosling finalizaron y fecharon el 17 de marzo un borrador de una nota sobre sus
__________________________________________________________________________
61.-Carta de Watson a Delbrück, fechada el 12 de marzo de 1953. En el Archivo de Caltech, citada por
Olby R, pgs 415-416.
43
conclusiones, incompletas, de la estructura B del ADN. Con ello, Franklin concluyó sus
relaciones con el King’s trasladándose al Birkbeck College. Por su parte Wilkins, del King’s
College, quién había recibido una copia de la nota que Watson y Crick habían enviado a
Nature, contestó62 el 18 de marzo. Hizo algunas sugerencias sobre diferentes frases del texto
original, y apuntó la posibilidad, sobre la base de que los resultados del Cavendish y del King’s
no eran contradictorios, de publicar simultáneamente los trabajos de Watson y Crick, de
Franklin y de su propio grupo.
El 19 de marzo, Crick escribió una carta63 a su hijo Michael, aún en la escuela, que
empezaba:
«Jim Watson y yo hemos realizado, probablemente, un descubrimiento de la mayor importancia. Hemos
construido un modelo de la estructura del ácido des-oxi-ribosa-nucleico (léelo con cuidado) llamado A.D.N.
para abreviar […] Nuestra estructura es muy bella…[respecto al emparejamiento de las bases dijo] Es como
un código. Si dispones de un conjunto de letras puedes deducir el mensaje. Creemos que el A.D.N. es un
código. Esto es, el orden de las bases (las letras) hace un gen diferente de otro (como una página de un libro
es diferente de las demás)».
EL FINAL
_________________________________________________________________
A efectos de la publicación de los resultados, William Lawrence Bragg (por parte del
Cavendish Laboratory: Watson y Crick) y John Randall (del King's College: Wilkins y Franklin),
con la colaboración de Gale, editor de Nature, forzaron un entente entre los tres grupos
implicados en la solución de la estructura del ADN. Las páginas 737-741 del número 4356 de la
revista Nature incluyen un abigarrado trío de trabajos que supusieron una revolución en
biología.
NATURE
CONTENTS
[…] Page
Molecular Structure of Nucleic Acids. By J. D. Watson and F. H. C. Crick;
Dr. M. H. F. Wilkins, Dr. A. R. Stokes and H. R. Wilson;
Rosalind E. Franklin and R. G. Gosling
737
«NOSOTROS deseamos proponer una estructura para la sal del ácido desoxirribo-
nucleico (A. D. N.). Esta estructura tiene hechos originales que tienen considerable interés
biológico.
Pauling y Corey1 ya han propuesto una estructura para el ácido nucleico. Tuvieron la
amabilidad de facilitarnos el manuscrito antes de su publicación. Su modelo consta de tres
cadenas enrolladas entre sí, con los fosfatos cerca del eje de la fibra y las bases hacia el
exterior. En nuestra opinión, esta estructura no es satisfactoria por dos razones: (1) Creemos
que el material que origina los diagramas de rayos-X es la sal, no el ácido libre. Sin los átomos
ácidos del hidrógeno no está claro qué fuerzas mantendrían la estructura unida, especialmente
cuando los fosfatos situados cerca del eje, que están cargados negativamente, se repelerán
entre ellos. (2) Algunas de las distancias de van der Waals parecen demasiado cortas.
Otra estructura tricatenaria ha sido sugerida por Fraser (en prensa). En este modelo los
fosfatos están en el exterior, y las bases en el interior unidas por enlaces de hidrógeno. Esta
estructura tal como se describe está bastante mal definida, y por esa razón no la
comentaremos.
Deseamos presentar una estructura radicalmente diferente para la sal del ácido
desoxirribonucleico. Esta estructura tiene dos cadenas helicoidales enrollada cada una
alrededor del mismo eje (ver diagrama). Hemos hecho las suposiciones químicas usuales,
principalmente, que cada cadena consta de grupos fosfodiester que unen restos de β-D-
46
desoxirribofuranosa mediante enlaces 3',5'. Las dos cadenas (pero no sus bases) se relacionan
en una diada perpendicular al eje de la fibra. Ambas cadenas siguen hélices dextrógiras, pero
debido a la diada la secuencia de los átomos en las dos cadenas corre en direcciones
opuestas. Cada cadena semeja groseramente al modelo No.1 de Furberg; esto es, las bases
están en el interior de la hélice y los fosfatos en el exterior. La configuración del azúcar y de los
átomos cercanos a ella, está próxima a la "configuración estándar" de Furberg; el azúcar se
encuentra aproximadamente perpendicular a la base acoplada. Hay un resto en cada cadena
cada 3.4 A. en la dirección-z. Hemos asumido un ángulo de 36° entre restos adyacentes en la
misma cadena, así que la estructura se repite cada 10 restos en cada cadena; esto es, cada 34
A. La distancia de un átomo de fósforo desde el eje de la fibra es de 10 A. Como los fosfatos
están en el exterior, los cationes tienen fácil acceso a ellos.
La estructura es abierta, y su contenido en agua bastante alto. Ante contenidos de agua
inferiores esperaríamos que las bases se inclinarian, así que la estructura podria llegar a ser
más compacta.
El hecho original de la estructura es la manera en que las dos cadenas se mantienen
unidas merced a las bases púricas y pirimidínicas. Los planos de las bases son
perpendiculares al eje de la fibra. Ellas se mantienen unidas en pares, una única base de una
cadena está unida mediante un puente de hidrógeno a otra única base de la otra cadena, así
que las dos se sitúan una al lado de la otra con idénticas coordinadas z. Para que ocurra el
enlace, un miembro del par debe ser una purina y el otro una pirimidina. Los enlaces de
hidrógeno se establecen como sigue: de la posición 1 de la purina a la posición 1 de la
pirimidina; de la posición 6 de la purina a la posición 6 de la pirimidina.
Si se acepta que esas bases sólo se presentan en la estructura en las formas
tautoméricas más verosímiles (esto es, con la conformación ceto mas que con la enol), se
deduce que sólo pueden formarse enlaces entre parejas específicas de bases. Esas parejas
son: adenina (purina) con timina (pirimidina), y guanina (purina) con citosina (pirimidina).
En otras palabras, si en una de las cadenas una adenina forma un miembro del par, sobre la
base de tales supuestos, el otro miembro debe ser timina; similarmente para guanina y citosina.
La secuencia de bases en una cadena no parece que este restringida de manera alguna. Sin
embargo, si sólo pueden formarse pares específicos de bases, se cumple que si se conoce la
secuencia de bases de una de las cadenas, entonces la secuencia de la otra cadena se
determina automáticamente.
Se ha determinado experimentalmente3,4 que, para el ácido desoxirribonucleico, la
relación de las cantidades de adenina y timina y la relación de guanina y citosina, son siempre
muy cercanas a la unidad.
Es probablemente imposible construir esta estructura con el azúcar ribosa en lugar de
desoxirribosa, pues el átomo extra de oxígeno acercaría demasiado una distancia de van der
Waals.
Los resultados de rayos-X publicados con anterioridad5,6 sobre el ácido
desoxirribonucleico son insuficientes para un test riguroso de nuestra estructura. Hasta donde
podemos decir, es compatible, en términos generales, con los datos experimentales, pero debe
considerarse sin confirmación hasta que haya sido cotejada frente a resultados más exactos.
Algunos de esos se dan en las comunicaciones siguientes. No conocíamos los detalles de los
resultados allí presentados cuando ideamos nuestra estructura, que descansa principalmente
en datos experimentales no publicados en su totalidad y en argumentos estereoquímicos.
No se nos escapa que el emparejamiento específico que hemos postulado sugiere de
inmediato un posible mecanismo de copia para el material genético.
Los detalles completos de las estructuras, incluyendo las condiciones asumidas en su
construcción, junto con un conjunto de coordenadas para los átomos, será publicada en otra
parte.
47
Estamos profundamente endeudados con el Dr. Jerry Donohue por su consejo y crítica
constantes, especialmente en relación con las distancias interatómicas. También hemos estado
estimulados por el conocimiento de la naturaleza general de resultados experimentales no
publicados y de las ideas del Dr. M. H. F. Wilkins, Dr. R. E. Franklin y de sus colaboradores en
el King's College, Londres. Uno de nosotros (J. D. W.) ha estado ayudado por una beca de la
Fundación Nacional para la Parálisis Infantil».
J.D. WATSON
F.H. CRICK
Medical Research Council Unit for the Study
of the Molecular Structure of Biological Systems,
Cavendish Laboratory, Cambridge.
Abril 2.
______________________
1
Pauling, L., and Corey, R. B., Nature, 171, 346 (1953); Proc. U.S. Nat. Acad. Sci., 39, 84 (1953).
2
Furberg, S., Acta Chem. Scand., 6, 634 (1952).
3
Chargaff, E., para referencias ver Zamenhof, S., Brawerman, G., and Chargaff, E. Biochim. et Biophys.
Acta, 9, 402 (1952).
4
Wyatt, G. R., J. Gen. Physiol., 36, 201 (1952).
5
Astbury, W. T., Symp. Soc. Exp. Biol. 1, Nucleic Acid, 66 (Camb. Univ. Press, 1947).
6
Wilkins, M. H. F., and Randall, J. T., Biochim. et Biophys. Acta, 10, 192 (1953).
«La importancia del ácido desoxirribonucleico (ADN) en el seno de las células vivas es
incuestionable. Se encuentra en todas las células capaces de dividirse, en su mayor parte si no
en su totalidad en el núcleo, donde es un componente esencial de los cromosomas.
Numerosas pruebas indican que es el portador de una parte de (si no toda) la especificidad
genética de los cromosomas y por ello del mismo gen. Hasta ahora, sin embargo, no se ha
presentado prueba concluyente alguna que muestre como puede realizar la operación esencial
que se exige a un material genético: su exacta autorreplicación.
Hemos propuesto recientemente una estructura1 para la sal del ácido
desoxirribonucleico que, de ser correcta, sugiere de inmediato un mecanismo para su
autorreplicación. Los resultados de rayos-X obtenidos por los investigadores del King's College,
Londres2, y presentados al mismo tiempo, dan apoyo cualitativo a nuestra estructura que es
incompatible con todas las estructuras propuestas con anterioridad3. Aunque la estructura no
será completamente corroborada hasta que se efectúe una comparación más exhaustiva con
los datos por rayos-X, tenemos la suficiente confianza en su exactitud para discutir sus
implicaciones genéticas. Para ello estamos asumiendo que fibras de la sal del ácido
desoxirribonucleico no son artefactos surgidos en el método de preparación, dado que ha sido
mostrado por Wilkins y sus colaboradores que patrones de rayos-X similares se obtienen a
partir tanto de fibras aisladas como de ciertos materiales biológicos intactos como la cabeza de
espermatozoos y bacteriófagos2,4.
La fórmula química del ácido desoxirribonucleico está ahora bien establecida. La
molécula es una cadena muy larga, cuyo esqueleto consta de un patrón alternante y regular de
grupos azúcar y fosfato, como se muestra en la Fig. 1. A cada azúcar se une una base
nitrogenada, que puede ser de cuatro tipos diferentes. (Hemos considerado que la 5-metil
citosina es equivalente a la citosina, dado que cualquiera de ellas puede encajar igualmente
bien en nuestra estructura.) Dos de las posibles bases -adenina y guanina- son purinas, y las
otras dos -timina y citosina- son pirimidinas. Hasta donde se conoce, la secuencia de bases a
lo largo de la cadena es irregular. La unidad monomérica, que consta de fosfato, azúcar y base,
se conoce como un nucleótido.
En primer hecho de nuestra estructura que tiene interés biológico es que consta no de una
cadena, sino de dos. Esas dos cadenas se enrollan entre ellas alrededor del eje, común, de la
fibra, como se muestra diagramáticamente en la Fig. 2. Se ha asumido con frecuencia que,
como había solo una cadena en la fórmula química, debería haber una sola en la unidad
estructural. Sin embargo, la densidad, evidente en el estudio de rayos-X2, sugiere con bastante
certeza que hay dos.
El otro hecho biológicamente importante es la manera en que las dos cadenas se
mantienen unidas. Esto se hace mediante enlaces de hidrógeno entre las bases, como se
muestra esquemáticamente en la Fig. 3. Las bases se mantienen unidas en parejas, una base
de una cadena se une mediante un enlace de hidrógeno a una base de la otra. El hecho
importante es que solo ciertos pares de bases se ajustan a la estructura. Un miembro de un par
49
debe ser una purina y el otro una pirimidina a efectos de enlazar las dos cadenas. Si un par lo
fuera de dos purinas, por ejemplo, no habría lugar para él.
Creemos que las bases estarán presentes, casi en su totalidad, en sus formas
tautoméricas más probables. Si esto es verdad, las condiciones para formar enlaces de
hidrógeno son más restrictivas, y los únicos pares de bases posibles son:
adenina con timina;
guanina con citosina.
El modo en que esas se mantienen unidas se muestra en las Figs. 4 y 5. Un par dado
puede tener dos posiciones. Adenina, por ejemplo, puede ocurrir en cualquier cadena; pero
cuando lo hace, su pareja en la otra cadena debe ser siempre timina.
Este emparejamiento está firmemente confirmado por los recientes resultados
analíticos5; en ellos, los ácidos desoxirribonucleicos, de diferentes procedencias, examinados
muestran que la cantidad de adenina es próxima a la cantidad de timina, y que la cantidad de
guanina es similar a la cantidad de citosina; sin embargo, la relación cruzada (la relación de
adenina a guanina) puede variar de una procedencia a otra. En efecto, si la secuencia de
bases en una cadena es irregular, es difícil explicar esos resultados analíticos excepto por la
clase de emparejamiento que hemos sugerido.
El esqueleto fosfato-azúcar de nuestro modelo es completamente regular, pero
cualquier secuencia de pares de bases puede encajar en la estructura. Ello permite que en una
molécula larga sean posibles muchas permutaciones diferentes, y por lo tanto parece probable
que la secuencia precisa de las bases sea el código que porta la información genética. Si fuera
dado el orden real de las bases de una de las cadenas del par, podríamos anotar el orden
exacto de las bases de la otra cadena, a causa de la especificidad del emparejamiento. Así,
una cadena es, como si dijéramos, el complemento de la otra, y es este hecho el que sugiere
como puede autorreplicarse la molécula de ácido desoxirribonucleico.
50
1.-Delbrück, M (1953) Introductory remarks about the program. Cold Spring Harbor Symposia on
Quantitative Biology 18 (Viruses), 1-2.
2.-Watson J.D., Crick F.H.C. (1953) The structure of DNA. Contribution to the discussion of provirus. Cold
Spring Harbor Symposia on Quantitative Biology 18 (Viruses), 123-131.
3.-Crick F.H.C., Watson J.D. (1953) The complementary structure of deoxyribonucleic acid. Proceeeding
of the Royal Society of London, Serie A (Mathematical and Physics Sciences) 223, 80-96.
53
«El siglo de la biología en el que estamos inmersos no es algo trivial. Es un movimiento de dimensiones
realmente heroicas, uno de los grandes episodios de la historia intelectual humana. Los científicos que lo
están construyendo hablan de nucleoproteínas, de ultracentrífugas, de genética bioquímica, de electroforesis,
de microscopio electrónico, de morfología molecular, de isótopos radiactivos. No debemos pensar que todo
ello no es más que herramientas. Es la manera fiable para encontrar una solución al cáncer y a la polio, al
reumatismo y a los problemas cardiacos. Es el conocimiento sobre el que debemos basar las soluciones a
los problemas de la población y del hambre. Es la manera de comprender la vida».
Con esas palabras reseñadas por Robert Olby4, el director del Programa de ciencias
naturales de la Fundación Rockefeller, Warren Weaver, subrayaba, en 1949, la importancia de
un campo de conocimiento que, en 1937, había denominado «Biología Molecular». Solo cuatro
años después, Max Delbrück escribía a Niels Bohr:
«Cosas muy importantes están sucediendo en biología. Creo que Jim Watson ha hecho un descubrimiento
que puede rivalizar con el que Ernest Rutherford5 realizó en 1911».
___________________________________________________________________________
4.-Wever W (1949) carta a HMH Carson, datada el 17 junio; recogida en: RB Fosdick (1952), The Story
of the Rockefeller Foundation, New York. Delbrück M (1953) carta a N Bohr, datada el 14 de abril, en el
archivo de CalTech. Reseñadas por R Olby (1994) The Path to the Double Helix, pg xix.
5.-Se refería al modelo atómico
54
14
________________________________________________________________________
INTRODUCCIÓN
TECNOCIENCIA MÉDICA
TABLA I
1941 Penicilina. Frotis vaginal para diagnóstico precoz del cáncer de cervix.
1944 Diálisis renal.
1947 Radioterapia (acelerador lineal).
1948 Lente intraocular en cirugía de la catarata.
1949 Cortisona. Medicina molecular.
1950 Identificación del tabaco como causa del cáncer de pulmón.
Curación de la tuberculosis pulmonar mediante estreptomicina+PAS.
1952 Epidemia de polio en Copenhague y nacimiento de las Unidades de cuidados
intensivos. Utilización de la clorpromazina en el tratamiento de la esquizofrenia.
1955 Cirugía cardiaca con circulación extracorpórea. Vacuna de la polio.
1956 Resucitación cardiopulmonar.
1959 Endoscopio.
1960 «Píldora» anticonceptiva.
1963 Trasplante de riñón.
1964 «Bypass» coronario.
1967 Trasplante cardiaco.
1969 Diagnóstico prenatal del síndrome de Down.
1971 «Cura» de la leucemia infantil.
1973 Imagen tomográfica computarizada.
1978 Primer «bebé probeta».
1979 Angioplastia coronaria.
1980 Erradicación de la viruela.
1981 Primera descripción del sida.
1984 Identificación de la bacteria Helicobacter pylori como causa de la úlcera péptica.
1987 Trombolisis en el infarto del miocardio.
1990 Aplicación del primer protocolo de terapia génica.
1992 Se inicia el Global Burden Disease Study de la mano de la Organización Mundial
de la Salud y del Banco Mundial.
1996 Polifarmacia en el sida = sida enfermedad crónica.
1998 Viagra®.
2000 Medicina genómica.
2.-Hellman S (1995) The patient and the public good. Nature Medicine 1, 400-2.
57
pacientes. Por su parte, una misma imagen lograda mediante técnicas diferentes suele ofrecer
mayor información. En la actualidad, el procedimiento es examinar en conjunto, pero
separadamente, cada una de las imágenes; en el futuro, las imágenes combinadas, en las que
se fundan las diversas técnicas, facilitarán la labor. El problema puede derivar de que un
exceso de información dificulte al clínico la toma de decisiones.
En la vertiente terapéutica, la litotricia extracorpórea por ondas de choque, las
diferentes aplicaciones del láser o los modernos sistemas de tratamiento radioterápico en
oncología, entre otras posibilidades, configuran el advenimiento de una nueva familia de
potentes tecnologías médicas. Gran parte del daño tisular que provoca la cirugía deriva de la
necesidad de seccionar los tejidos normales para acceder a la lesión. Las tecnologías
quirúrgicas actuales —revolución quirobótica— acceden al interior del organismo utilizando las
vías naturales (broncoscopia, endoscopia digestiva o uroscopia) o a través de mínimas
incisiones (laparoscopia, acceso al sistema cardiocirculatorio mediante la punción de un vaso).
Esta cirugía «mínimamente invasiva» o cirugía «sin huellas», está revolucionando la práctica
quirúrgica al conseguir procedimientos más simples, más seguros, con tiempos de
recuperación bastante más cortos y, por tanto, más económicos y más beneficiosos para los
pacientes.
Tal vez, una de las técnicas más llamativas la ofrece el láser por su versatilidad. Como
herramienta accesoria en las técnicas de fertilización in vitro, un láser es capaz de ayudar a un
espermatozoide a atravesar la envoltura del óvulo; de igual modo, de cara al futuro
nanotecnológico, puede escindir un trozo defectuoso de un cromosoma que, luego, podrá ser
reparado. A nivel macroscópico, la cirugía ocular mediante láser está perfectamente
implantada, y los estomatólogos, por su parte, comienzan a abandonar las fresas y se preparan
para oradar el duro esmalte con dicha energía. Junto al nuevo bisturí, la robótica, la ingeniería
rehabilitadota en sus vertientes funcional y estética, la ingeniería capacitadota ocupada en la
recuperación sensorial y los nuevos biomateriales, conforman las fronteras de la cirugía.
La robótica es el representante más espectacular de la compleja tecnología con
orientación terapéutica. Las manos tienen cierta clase de sabiduría intrínseca; sólo tocando
saben cómo coger una fina hoja de papel sin romperla. Los ingenieros robotistas intentan
construir manos mecánicas que, al igual que las humanas, puedan explorar y reconocer su
entorno. Para conseguirlo es necesario integrar sensores de presión, posición, vibración y
tensión, en un mecanismo que reúna todas esas sensaciones. Tal diseño no es sino el de la
capacidad táctil de la mano del hombre, y cuyo desarrollo va de la mano del de una nueva
ingeniería: ingeniería háptica o de la capacidad manual. Una de las exigencias de este
ambicioso proyecto es la interrelación entre disciplinas que, hasta hace muy poco tiempo, poco
tenían que decirse entre sí; neurofisiólogos e ingenieros que diseñan robots, comparten
intereses comunes respecto a los mecanismos mediante los que percibimos y respondemos a
la textura, forma y orientación de un objeto. Ingenieros y fisiólogos están enfrascados en
idénticos problemas; con ello y desde el lado de la tecnología, la robótica inicia su penetración,
entre otros, en el campo de la cirugía. Robodoc realiza la implantación de prótesis de cadera,
Neurobot accede a la cavidad craneal y Laparobot extirpa vesículas litiásicas. La experiencia
quirobótica es el paso previo a la construcción de prótesis de miembros cuyos sensores
puedan percibir y trasmitir información táctil a los nervios sensoriales intactos de la raíz del
miembro amputado, y cuyos efectores puedan llevar a cabo las funciones mecánicas
deseadas. Por ¿último?, de la conjunción de estas nuevas imagen y cirugía, más el ingrediente
de la realidad virtual y de la teleprensencia, se vislumbra —¡ya está ahí!— unos medios —
medicina «nintendo»— donde la ficción y la realidad se confunden.
La tercera revolución es la biotecnológica. Si las computadoras, las telecomunicaciones
y los robots, pueden hacer a los médicos y a los hospitales más eficientes y seguros, la
58
Biología está aportando un valor añadido de impresionante cuantía. La biotecnología —empleo
de células vivas para la obtención de productos útiles— es una de las tecnologías más
antiguas. Ha sido utilizada desde tiempos remotos para hacer vino y queso, preparar cerveza,
mejorar las cosechas e incrementar el rendimiento de los animales de granja. Pero en las dos
últimas décadas, la biotecnología ha sufrido una transformación como resultado de una serie
de espectaculares desarrollos de los que la genómica representa la penúltima frontera.
Genómica3 se refiere a la disciplina que se ocupa del mapeo/secuenciación y del análisis de la
información resultante, del genoma humano. Es una disciplina que arranca del matrimonio
entre la biología molecular4 y celular con la genética clásica, alentado por la ciencia de la
computación (bioinformática). La genómica implica la construcción e interpretación de varios
tipos de mapas genéticos y se interesa por la interpretación de su significado biológico (post-
genómica, proteómica). La genómica es el lugar de encuentro de biólogos moleculares y
bioquímicos, de genetistas clínicos y citogenetistas, de biólogos de poblaciones y
evolucionistas, de biólogos teóricos y bioinformáticas, de todos aquellos interesados en la
biología y genética humanas. Y de médicos, también de una «nueva clase», que integran ese
conocimiento en «medicina molecular».
MEDICINA MOLECULAR
El punto de partida del concepto de enfermedad molecular son los estudios de Archibald
E. Garrod5 (FIGURA 1) sobre la alcaptonuria. Garrod había observado que, en pacientes con
ese trastorno metabólico6, se detectaba en la orina una sustancia —alcaptón o ácido
homogentísico— que no se detecta el la orina de individuos sanos. De manera similar, el
fracaso en la formación de pigmento cutáneo en el albinismo, la excreción urinaria de grandes
cantidades de cistina en la cistinuria y la aparición de pentosa en la orina en la pentosuria
esencial, fueron interpretadas por Garrod como bloqueos puntuales en diversas vías
metabólicas normales. Garrod atribuyó el albinismo a un impedimento en la formación de
melanina, y las otras tres enfermedades a la excreción de metabolitos intermediarios
proximales al bloqueo metabólico y cuya acumulación puede ser tóxica. Por otro lado y tras
___________________________________________________________________________
3.-Genómica. Término sugerido por TH Roderick, del Jackson Laboratory, Bar Harbor, Maine, y que dio
título a una “nueva” revista -“Genomics”-, establecida en 1987. En: McKusick VA (1987) A new discipline,
a new name, a new journal. Genomics 1 (1), 1-2.
4.-Biología molecular. Término introducido por WT Astbury: “Implica no tanto una técnica como una
estrategia; un abordaje desde el punto de vista de las llamadas ciencias básicas, y con la idea líder de
escudriñar las bases de las manifestaciones a gran escala de la biología clásica, en cuanto que
responden a un plan molecular. Tiene que ver, en particular, con las formas de las moléculas biológicas,
y con la evolución, explotación y diversificación de aquellas formas en el ascenso hacia niveles, más y
más altos, de organización. La biología molecular es predominantemente tridimensional y estructural, lo
que no significa, sin embargo, que se aun mero refinamiento de la morfología. Debe indagar, al mismo
tiempo, en la génesis y en la función” (Molecular biology or ultrastructural biology? Nature 190: 1124,
1961).
5.-Garrod A (1902) The incidence of alcaptonuria: A study in chemical individuality. Lancet ii: 1616-20. El
párrafo final dice: “De acuerdo con los datos disponibles, puede inferirse que los individuos de una
especie no se ajustan a un estándar rígido de metabolismo, sino que difieren discretamente en sus
respectivas químicas, de igual modo que lo hacen en sus morfologías. Por ello no debe sorprendernos el
que, ocasionalmente, exhiban desviaciones conspicuas del metabolismo, en modo similar a la presencia
de raras aberraciones estructurales, como dedos supernumerarios o transposiciones viscerales”.
6.-Alcaptonuria. Anomalía metabólica congénita cuyo signo más llamativo es el oscurecimiento de la
orina tras su exposición al aire. Ennegrecimiento debido a la presencia en la orina de ácido
homogentísico, que en condiciones normales es metabolizado.
59
consultar con Bateson —uno de los pioneros de la gran escuela británica de genetistas-,
Garrod pudo explicar el patrón familiar hereditario de tales enfermedades en términos de las -
entonces recién redescubiertas— leyes de Mendel: tales metabolopatías son condiciones
recesivas.
Fruto de la experiencia acumulada fueron sus famosas Conferencias Croonian7 sobre
«Errores innatos del metabolismo». En 1909, a la par que Wilhelm Johansen acuñaba la
palabra «gen» para referirse a los factores mendelianos, Archibald E. Garrod publicaba sus
charlas en forma de libro8. Al final del primer capítulo («La química de las especies y del
individuo») concluye:
«Cuando discutamos con más detalle los diferentes errores innatos del metabolismo conocidos se verá
que, en cada uno de ellos, la causa más probable sea la carencia congénita de alguna enzima en particular,
en cuya ausencia se bloquea un paso metabólico».
Y, finalizando el capitulo segundo («La incidencia y herencia de los errores innatos del
metabolismo») puede leerse:
«Debe criticarse que la mayoría de los observadores de esas anomalías han prestado poca atención a los
condicionantes hereditarios […]. pero el análisis conjunto de las piezas de información disponibles revela la
existencia de semejanzas, especialmente evidentes en su incidencia ligada al sexo, en su tendencia a ocurrir
en varios miembros de una generación de una familia y en la rareza de la transmisión directa de padres a
hijos. Si el factor subyacente en cada caso es la ausencia de una enzima determinada, debe esperarse que
tales enzimas se comporten como caracteres recesivos mendelianos»
7.-Garrod a (1908) The Croonian Lectures: Inborn errors of metabolism. Lancet ii, 1-7 (Lecture I: General
and introduction. Albinism); 73-9 (Lecture II: Alkaptonuria); 142-8 (Lecture III: Cystinuria); 214-20 (Lecture
IV: Cystinuria, pentosuria
8.-Garrod AE (1909) Inborn Errors of Metabolism. London: Henry Frowde and Hodder & Stoughton. The
Lancet Building. Segunda edición (1926) en: www.esp.org/books/ Garrod/inborn-
errors/facsimile/title3.html (acceso: enero 2003).
60
la excreción de diferentes metabolitos intermediarios en las enfermedades estudiadas. Garrod
tenía claro el concepto de un sistema definido por «un gen → una enzima → una reacción
química», en el que las tres entidades interaccionaban de manera muy específica. En su
monografía, Garrod señaló que la idea del proceso metabólico como un bloque estaba dando
paso a otra que contempla el estudio del metabolismo en compartimientos, correspondiendo
cada uno de ellos a una vía metabólica definida que procede en una secuencia de pasos.
Sobre ello, Garrod desarrolló el concepto que:
«Ciertas enfermedades que se manifiestan a lo largo de la vida de un individuo tienen su origen en la
alteración de una enzima determinada que controla un paso metabólico específico. En cada una de ellas la
causa más probable es la ausencia congénita de alguna enzima particular»
Rareza y mera observación fueron, tal vez, los motivos por los que el trabajo de Garrod
no fuera apreciado durante muchos años.
Aunque la relación entre genes y enzimas estaba implícita en la formulación de Garrod,
la idea no cuajó. Con todo, el concepto de Garrod evolucionó hacia el de «un gen → una
enzima», aportado por George W. Beadle y Edward L. Tatum en 1941. Este concepto
establece: 1) que todos los procesos bioquímicos en todos los organismos están bajo control
genético. 2) Que cada vía metabólica se resuelve en una serie de pasos o reacciones
químicas. 3) Que cada reacción química está bajo el control de un determinado gen. Y 4) que
una sola mutación génica altera la capacidad de una célula para realizar una determinada
reacción química. Beadle y Tatum (FIGURA 2) serían recipiendarios del Premio Nobel de
Fisiología o Medicina 1958 «por su descubrimiento de que los genes actúan regulando
acontecimientos químicos definidos».
____________________________________________________________________________
11.-Pauling L, Itano HA, Singer SJ, Wells IC (1949) Sickle cell anemia, a molecular disease. Science 110,
543-8.
12.-Bush V (1945) Science: The Endless Frontier. A report to the president. Washington DC: US
Government Printing Office. En: www.physics.uiuc.edu/General_Info/VBush1945.html.
62
diferencia en la movilidad electroforética entre las hemoglobinas normal (hemoglobina A) y
patológica (hemoglobina S: Sickle), lo que indicaba que ambas variedades hemoglobínicas
trasportaban diferente carga eléctrica. El grupo de Pauling demostró: 1) que los pacientes con
anemia falciforme tienen un tipo de hemoglobina diferente a la «normal», y que tal diferencia se
debe a que las hemoglobinas S y A tienen diferentes globinas. 2) Que los individuos con rasgo
drepanocítico poseen una mezcla de hemoglobinas A y S. 3) Que la drepanocitosis o rasgo
falciforme refleja una condición heterozigótica, mientras que la anemia falciforme representa la
condición homozigótica.
Cuando apareció publicado el trabajo de Pauling estaba aceptado que las hemoglobinas
adulta y fetal difieren en su movilidad electroforética y que varias enfermedades se
correlacionan con patrones electroforéticos anormales de sus hemoglobinas. ¿Qué aportaba de
nuevo del trabajo de Pauling? Beadle y Tatum habían establecido, en los primeros años de la
década de los 1940s, la hipótesis de «un gen → una enzima», pero no estaba claro si los
genes controlaban algo más que la mera presencia o ausencia de una enzima particular. El
trabajo de Pauling demostró que los genes podían alterar cualitativamente la estructura de las
proteínas, y en el caso de la anemia falciforme con graves consecuencias para la salud
humana. También demostró una relación causal, no una mera correlación, entre la presencia
de moléculas de hemoglobina anormal y las consecuencias patológicas de la enfermedad
falciforme.
De la mano de Pauling, el descubrimiento representó el emblema de cómo la ciencia
básica puede solucionar cuestiones prácticas. Años después, manifestó su creencia de que la
química podría ser un recurso eficaz para resolver problemas médicos, y que su aplicación
puede significar un relevante progreso en el campo de la medicina, transformando el carácter
empírico de la práctica médica en otro científico de la medicina molecular. Pauling intentó
establecer, en Caltech, un instituto de medicina molecular; sin embargo, el escepticismo de las
opiniones pública y privada abortó el propósito.
Garrod («errores metabólicos»), Beadle y Tatum («un gen → una enzima») y Pauling
(«enfermedad molecular») representan el trípode de partida de la medicina molecular13. La
medicina molecular abarca el descubrimiento de los componentes moleculares fundamentales
que determinan el comportamiento celular; la disección de la expresión génica aberrante y de
las interacciones anómalas, y la modulación o corrección de esas aberraciones y anomalías
con el propósito de prevenir y curar la enfermedad. La medicina molecular es la aplicación de
los métodos de la biología molecular en general y de la ingeniería genética en particular, a la
práctica clínica; intenta dirigir las acciones diagnóstica y terapéutica al lugar mismo del defecto
(un gen mutado) y no a los efectos pleotrópicos, fenotípicos, secundarios de los productos de
ese gen. Sin embargo, existe una distancia enorme entre la identificación de genes
responsables de raros trastornos monogénicos (por ej., alcaptonuria), y la de factores de
susceptibilidad que contribuyen a enfermedades complejas que afectan a millones de personas
(enfermedades cardiovasculares o diabetes, por ej.)
El análisis molecular del ADN es, hoy, parte integral de todas las especialidades
médicas; su impacto en medicina clínica incluye nuevas estrategias diagnósticas de las
enfermedades, detección de patógenos, rastreo de predisposición a las enfermedades,
consejo genético, desarrollo de fármacos, farmacogenética y, en casos seleccionados, terapia
génica. Se conocen más de 3000 enfermedades humanas causadas por mutaciones puntuales
que siguen un patrón de herencia mendeliano; más aún, muchas enfermedades están influidas
por el ruido de fondo genético de los individuos afectados y existe, con frecuencia, una
___________________________________________________________________________
13.-Culliton BJ (1995) Molecular medicine in a changing world. Nature Medicine 1 (1): 1. Karp JE, Broder
S (1994) New directions in molecular medicine. Cancer Research 54, 635-65.
63
interacción compleja entre factores ambientales y la predisposición genética. Muchos de tales
trastornos — hipertensión, coronariopatías, asma o diabetes— representan problemas de salud
pública de primer orden por lo que la elucidación de sus patogénesis representa un reto
extraordinario. Otras patologías genéticamente determinadas incluyen síndromes causados por
aberraciones cromosómicas y cánceres hereditarios. Tomadas en conjunto, las enfermedades
genéticas forman un grupo considerable de enfermedades humanas. Más de un tercio de todas
las admisiones pediátricas hospitalarias se deben a trastornos causados, al menos en parte,
por factores genéticos. El 6-8% se refieren a defectos génicos únicos, el 0.4-2.5% se debe a
cromosomopatías y el remanente tiene una influencia genética. En términos generales, el 3-5%
de las enfermedades en la población general tiene una causa genética. Sin embargo, es difícil
realizar estimaciones precisas dado que diferentes defectos génicos pueden definir un mismo
fenotipo (heterogeneidad genética), y la mayoría de las enfermedades genéticas son raras.
Dado que los rasgos examinados por Mendel estaban causados por genes únicos, las
enfermedades humanas monogénicas suelen referirse como trastornos mendelianos.
Información de muchas de estas enfermedades genéticas puede encontrarse en un compendio
en continua actualización: Mendelian Inheritance in Man (MIM), iniciado por Victor A McKusick,
accesible en la web.
Los avances promovidos por el Proyecto Genoma Humano han tenido una tremenda
influencia en el campo de la genética. Casi todas las enfermedades genéticas más comunes
(150-200) y un número considerable de otras menos frecuentes (600-800) han sido rastreadas
hasta sus genes defectivos (1500-2000). En el curso de tales estudios han salido a la luz
nuevos mecanismos genéticos como la impronta génica (expresión diferencial de un gen de
acuerdo con su origen parental; por ej., los síntomas de la enfermedad de Huntington, causada
por un alelo dominante, se presentan durante la adolescencia si la herencia es paterna, pero
no lo hacen hasta la madurez cuando la procedencia es materna) o las modificaciones
epigenéticas que, a su vez, han potenciado nuevos avances diagnósticos y fisiopatológicos.
Este progreso global ha permitido un estudio más detallado de la relación entre los defectos
moleculares básicos y los trastornos funcionales de procesos en células, órganos y
organismos: correlación genotipo-fenotipo.
El primer beneficiado por tales desarrollos es el diagnóstico molecular. La década
pasada ha sido testigo de grandes mejoras en la resolución diagnóstica, desde los marcadores
que identificaban un cromosoma con un gen afectado (hibridación in situ), hasta la detección de
reordenamientos como grandes delecciones, duplicaciones y translocaciones y de mutaciones
puntuales de un par de bases. Las tecnologías de detección de mutaciones y su aplicación
diagnóstica han supuesto un logro sin precedentes; sin embargo, existe una tendencia a
sobrevalorar el diagnóstico molecular que, hoy, está lejos del ideal. Incluso enfermedades
monogénicas bien conocidas para las que el diagnóstico molecular lleva vigente muchos años,
como la distrofia muscular de Duchenne, la hemofilia A o la fibrosis quística, la tasa de
detección de mutaciones es, solo, del 60-90%; ello se debe a una combinación de factores
como la complejidad génica y la frecuencia de nuevas mutaciones. La tasa de detección de
mutaciones es aún más baja en el cáncer hereditario de mama; la tasa de detección en
familias donde la enfermedad cosegrega con el locus BRCA1 en el cromosoma 17 es del 50-
60%, lo que depende de la población estudiada y de la tecnología empleada, y si la
enfermedad cosegrega con el locus BRCA2 la tasa de detección es solo del 35%. Este
fenómeno se denomina «heterogeneidad genética»: una enfermedad puede estar causada por
más de un gen defectivo. El cáncer de mama por, al menos, dos —BRCA1 y BRCA2—, pero
posiblemente haya más. La enfermedad poliquística renal es otro ejemplo; con una frecuencia
de 1:500, es una de las enfermedades monogénicas más comunes. El 85% de los casos está
causado por mutaciones en PKD1 en el cromosoma 16, con una tasa de detección del 10%; el
64
10% de los casos se deben a mutaciones PKD2 en el cromosoma 4. Por su parte, la pérdida de
visión por retinitis pigmentosa se asocia a no menos de 24 loci.
La ciencia genómica modificará radicalmente tres aspectos de la medicina: la naturaleza
de la transación o del contrato médico; la perspectiva de la enfermedad por el enfermo y por el
médico, y el contexto social y cultural en el que el contrato médico tiene lugar. El contrato
médico, desde el nacimiento de la medicina, se ha establecido sobre las bases de la curiosidad
diagnóstica (lado del médico) y la expectativa terapéutica (lado del enfermo). El genio
hipocrático insertó el pronóstico entre ambos; en toda medicina racional, cualquier terapia
eficaz deberá utilizarse, solamente, cuando el médico pueda anticipar el curso de la
enfermedad con o sin tratamiento. Estas ancianas reglas han guiado el contrato médico
durante siglos. La medicina molecular introducirá en el contrato clínico una forma sin
precedentes de pronóstico; juicio que jugará un papel protagonista en numerosas situaciones.
La situación surge de la identificación de genes asociados con susceptibilidad a diferentes
enfermedades comunes como el cáncer, la diabetes o las enfermedades cardiovasculares. En
primer lugar es difícil asignar una palabra que defina la situación o el estado creado por la
presencia de tales genes: susceptibilidad, predisposición, propensión, proclividad, o riesgo,
potencial, probabilidad. Independientemente del término elegido, la cuestión es cómo informar
a un paciente que sufrirá una enfermedad —más o menos grave, en un momento u otro de su
vida— con una cierta probabilidad en algunos casos y, en otros, con casi certeza. ¿Cual es el
significado ético de esta clase de información pronóstica o medicina predictiva?
Todo pronóstico consiste de posibilidades y de probabilidades; rara vez el futuro es
cierto. En la medicina de nuestros días esas posibilidades y probabilidades suelen descansar
en estudios epidemiológicos y se explicitan en términos estadísticos. Las pruebas que emergen
con la medicina molecular van más allá de la probabilidad epidemiológica; tales pruebas
informan de personas que poseen variantes génicas que confieren un riesgo innato de padecer
cierta enfermedad. Pero la ciencia muestra la complejidad de la vía por la que el genotipo
expresa el fenotipo o por la que un gen expresa una enfermedad. El riesgo innato definido por
la presencia de una mutación génica —asociada, por ejemplo, a cáncer— se combina con la
información contenida en multitud de otros genes que se expresan en una cascada de
proteínas, que interaccionan con otra multitud de acontecimientos biológicos y, quizás, con
otros de índole psicológica, social o ambiental, antes de emerger como una lesión llamada
cáncer. Esta complejidad debe presidir el razonamiento del pronóstico génico referido a una
situación específica en un individuo en particular. De la incertidumbre y de la complejidad de tal
pronóstico surge la primera implicación ética del contrato clínico: la veracidad de la información
génica para el paciente. Las nuevas posibilidades pronósticas de la medicina molecular exigen
un vocabulario más sofisticado que permita expresar probabilidades más complejas y la historia
natural asociadas a las pruebas génicas que irán emergiendo.
La perspectiva tradicional que comparten médicos y pacientes es que la enfermedad es
algo indeseable que debe prevenirse y, en su caso, eliminarse. La persona con riesgo de
cáncer desea prevenir su manifestación; el paciente con cáncer desea que su tumor sea
extirpado o, si ello es imposible, que su condición general sea mejorada y los efectos letales
diferidos. La disponibilidad de pruebas de susceptibilidad a futuras enfermedades supone
desplazar al mundo médico millones de personas que no experimentan dolor, ni inquietud, ni
limitaciones de tipo alguno. Dicha población deberá organizar su vida entre colonoscopias o
mamografías, de la misma manera que va al dentista; muchas personas desarrollarán, a causa
de ello, síntomas psicosomáticos, otras puede que, incluso, vivan como inválidos. En cualquier
caso, todo aquel en quién se detecte una susceptibilidad génica entrará a formar parte de una
nueva clase de individuos: «prepacientes». Los prepacientes no serán enfermos en el sentir
actual del término, pues no necesitarán tratamiento; tampoco serán individuos sanos en el
sentir de estar libres de una condición médica relevante. Tendrán una relación particular con el
65
mundo médico, obligada por la necesidad de una espera vigilada, pero no obtendrán beneficios
de las soluciones tecnológicas de la medicina molecular14.
El tercer cambio radical asociado a la medicina molecular afectará al contexto
sociocultural. Compañías de seguros, de empleo y de prospección de mercado, esperan
interesadas la información que fluirá de los bancos de datos génicos. Incluso el control legal de
la privacidad génica —que aún no ha sido desarrollado, excepto en Islandia— tendrá
dificultades para impedir el acceso a dicha información. Los problemas de privacidad y de
confidencialidad, con ser importantes por sí mismos, tienen mayor trascendencia en el contexto
de la medicina molecular. Los principales problemas derivan de la propensión humana a
clasificar las personas en grupos y poblaciones con nombres y con números. La información
génica consiste, en sentido literal, en datos relevantes a un genos, el término griego para tribu.
Desde sus comienzos, la humanidad ha sido encasillada en grupos. La información génica
puede utilizarse para crear tribus artificiales; personas clasificadas no como Sioux, Hutus,
Caucasianos, etc., sino clasificadas por sus marcadores génicos que comparten una
propensión por una determinada enfermedad, tribus p53, BRCA1, apoE4, etc. «Donde hay
distinción y discriminación potencial existe injusticia», comenta Albert R. Jonsen. La medicina
génica predictiva, que dividirá y redistribuirá las poblaciones sobre la base de sus rasgos
génicos, debe acompañarse de normas de justicia que aseguren que los prepacientes no serán
segregados del mundo socioeconómico que habiten.
El Convenio relativo a los derechos humanos y la biomedicina, ratificado por el Reino de
España el 23 de julio de 1999, dispone, entre otros:
Capítulo I - Disposiciones generales
Art 1. Objeto y finalidad: Las Partes en el presente Convenio protegerán al ser humano
en su dignidad e identidad y garantizarán a toda persona, sin discriminación alguna, el
respeto a su integridad y a sus demás derechos y libertades fundamentales con respecto
a las aplicaciones de la biología y medicina. Cada parte adoptará en su legislación interna
las medidas necesarias para dar aplicación a lo dispuesto en el presente Convenio.
Art 2. Primacía del ser humano: El interés y el bienestar del ser humano deberán
prevalecer sobre el interés exclusivo de la sociedad o de la ciencia.
Capítulo IV - Genoma humano.
Art 11. No discriminación: Se prohíbe toda forma de discriminación de una persona a
causa de su patrimonio genético.
Art 12. Pruebas genéticas predictivas: Sólo podrán hacerse pruebas predictivas de
enfermedades genéticas o que permitan identificar al sujeto como portador de un gen
responsable de una enfermedad, o detectar una predisposición o una susceptibilidad
genética a una enfermedad, con fines médicos o de investigación médica y con un
asesoramiento genético apropiado.
Art 13. Intervenciones sobre el genoma humano: Únicamente podrá efectuarse una
intervención que tenga por objeto modificar el genoma humano por razones preventivas,
diagnósticas o terapéuticas y sólo cuando no tenga por finalidad la introducción de una
modificación en el genoma de la descendencia.
Art 14. No selección de sexo: No se admitirá la utilización de técnicas de asistencia
médica a la procreación para elegir el sexo de la persona que va a nacer, salvo en los
casos en que sea preciso para evitar una enfermedad hereditaria vinculada al sexo.
______________________________________________________________________
14.-Jonsen AR, Durfy SJ, Burke W, Motulsky AG (1996) The advent of the “unpatients”. Nature Medicine
2 (6), 622-4. Jones R (1996) The impact of molecular medicine on health services. Nature Medicine 2 (9),
959-60.
66
En el otro extremo, en un intento de desembarazarse de la predicción génica, se sitúa la
autonomía de los pacientes. La tecnología pone en sus manos los suficientes recursos para el
autocontrol, autodiagnóstico y autotratamiento. Los objetivos principales de la tecnología
diagnóstica son: mejorar la facilidad del manejo y la portabilidad del aparataje; disminuir la
cantidad de muestra necesaria y el dolor asociado con la toma de sangre; desarrollar técnicas
no invasivas, e incorporar nuevas tecnologías. Algunos ejemplos muestran el panorama
diagnóstico: un monitor tipo reloj que accede a la glucosa intravascular a través de la piel
intacta y mediante la aplicación de una corriente eléctrica —un proceso denominado
iontoforesis inversa— proporciona un registro continuo de los niveles de glucosa en sangre; un
sistema de ultrasonido adaptado a la ducha, en combinación con un panel termográfico
ultrasensible instalado en la pared, permitirá una autoexploración matinal para detectar
cualquier «bultoma» o «incidentaloma»; un sensor en el inodoro analizará multitud de
parámetros bioquímicos y microbianos en orina y heces, y una microcámara engullida como un
comprimido proporcionará información visual del aparato digestivo desde la boca hasta el ano.
Toda esta información será recibida por una central de registro del tamaño de un maletín; aquí,
sobre la base de programas de inteligencia artificial (sistemas expertos), tal información,
icónica y bioquímica, será interpretada indicando al paciente la actitud a seguir. En aquellas
situaciones complejas que exijan la intervención de un centro médico de referencia, la consulta
se hará a través de sistemas de telemedicina.
La autonomía afectará, también, al tratamiento; un acontecimiento que apunta dos
proyecciones. Por un lado, diferentes estudios en la última media docena de años muestran
una tendencia creciente en el uso de terapias no convencionales —medicinas alternativas o
complementarias—; ello, por una población culta con acceso a la medicina ortodoxa. Un hecho
que obliga a reflexionar sobre los sistemas actuales de salud. Por otro lado, se produce una
medicalización progresiva de la salud; la estética corporal y el estilo de vida aparecen como
dianas de la preocupación de los individuos y de los intereses de la industria farmacéutica (¿la
estética como patología?). A parte de la automedicación, ejemplificada por la toma
indiscriminada de antibióticos y su incidencia en la resistencia microbiana a los mismos, y la
anarquía en el seguimiento de los tratamientos prescritos, debe resaltarse el consumo de
fármacos para el estilo de vida (antidepresivos —el Prozac es un fármaco superventa15—,
somníferos —el Orfidal es otro fármaco estrella—, adelgazantes, nootropos o terapia génica
orientada a la calvicie o a las canas) y de alimentos de diseño (funcionales, preventivos,
nutricéuticos, ...). Pero la medicina molecular tiene puestos los ojos en las terapias génica y
celular.
15.-Edlin M (2008) Niche-buster drugs launch next market evolution. Managed Healthcare Executive,
Sept 1.
16.-George Orwell. Seudónimo de Eric Arthur Blair (1903-1950). Novelista y ensayista ingles. Famoso
por sus novelas “Animales de granja” (1945), y “1984” (1949).
67
su parte, la herramienta ejecutoria contempla la transfección o trasplante génico; ello es,
cirugía molecular.
«El ascenso de la terapia génica puede compararse —comentan Jon A Wolf y Joshua
Lederberg17— al desarrollo de la aeronáutica. De la misma manera que el intento desastroso de Ícaro,
fruto de la fantasía griega, guió la imaginación de Leonardo Da Vinci para diseñar extravagantes máquinas
voladoras, los inicios de la historia de la terapia génica están jalonados por soñadores y profetas del fracaso
y por fiascos. En ambos casos y antes de que las herramientas necesarias estuvieran disponibles, se
intentaron experiencias precoces condenadas al fracaso. Así como el éxito, en 1903, de los hermanos Wright
inició un vertiginoso desarrollo que alumbró los aviones supersónicos y los viajes espaciales, el desarrollo del
ADN recombinante a comienzos de los 1970s hizo realidad los protocolos de terapia génica humana».
Terapia génica no es, por tanto, un concepto nuevo. El principio de la terapia génica es
colocar material génico corrector en las células para aliviar los síntomas de la enfermedad;
también, silenciar genes indeseables. Muchos de los pioneros de la genética moderna fueron
conscientes de que sus descubrimientos pudieran contemplar aplicaciones médicas. Los
hechos básicos de la terapia génica son anteriores al establecimiento de las herramientas que
la han hecho posible. Tatum incluía, ya finalizando su discurso de aceptación del PNFM ’58, las
siguientes palabras18:
«Quizás, algunos de nosotros llegaremos a ver cómo el código de la vida desentraña la estructura
molecular de las proteínas y de los ácidos nucleicos. Ello permitirá la mejora de todos los organismos vivos
mediante un proceso que podemos denominar ingeniería genética. Esto podría acaecer en etapas sucesivas.
Desde la biosíntesis in vitro de enzimas más eficientes a la biosíntesis de las correspondientes moléculas de
ácidos nucleicos, y a la introducción de esas moléculas en el genoma de los organismos ».
Otro de los galardonados aquel año, Joshua Lederberg (FIGURA 3) escribió, en 1963,
en el artículo Futuro Biológico del Hombre19:
«Podemos anticipar el cultivo in vitro de células germinales y manipulaciones como el intercambio de
cromosomas y segmentos. La aplicación última de la biología molecular sería el control directo de secuencias
nucleotídicas en los cromosomas humanos, en relación con el reconocimiento, selección e integración de los
genes deseados».
___________________________________________________________________________
17.-Wolf JA, Lederberg J (1994) An early history of gene transfer and therapy. Human Gene Therapy 5,
469-80.
18.-Tatum EL (1958) Nobel Lecture: A case history in biological research. Nobel Lectures in Molecular
Biology 1933-1975. New York: Elsevier. Pgs 67-77.
19.-Lederberg J (1963) Biological Future of Man. En: G Wolstenholme (Ed) Man and His Future. London:
Churchill, pg 265.
68
Por su parte, en un simposio que tuvo lugar en la Facultad de Medicina de la
Universidad de Columbia, en Nueva York, con el título Reflexiones sobre la Investigación y el
Futuro de la Medicina, Tatum predijo, en 1966, que los virus podrían utilizarse para transducir
genes20:
«Puede anticiparse que los virus serán utilizados con efectividad para beneficio de la humanidad, en
estudios teóricos sobre genética de las células somáticas y, posiblemente, en terapia genética […] Podemos
mostrarnos optimistas respecto a las posibilidades terapéuticas derivadas del aislamiento o diseño, síntesis e
introducción de nuevos genes en células defectivas de órganos particulares”. Tatum especuló que, como las
bases del cáncer son genes alterados, “el tratamiento podría conseguirse modificando y regulando las
actividades génicas, o reparando reemplazando esos genes”.
20-Tatum EL (1966) Molecular biology, nucleic acids, and the future of medicine. Prespectives in Biology
and Medicine 10, 19-32.
21.-Lederberg J (1966) Experimental genetics and human evolution. American Naturalist 100, 519-31.
22.-Rogers S (1966) Shope papiloma virus: a passenger in man and its significance to the potential
control of the host genome. Nature 212 (Nº 5067), 1220-2.
23.-Nirenberg MW (1967) Will society be prepared? Science 157, 633.
69
FIGURA 5.-Arthur Kornberg (1918-2007). Compartió con Severo Ochoa (1905-1993) el PNFóM
1959, «por sus descubrimientos de los mecanismos que operan en la síntesis biológica del ácido
ribonucleico y del ácido desoxirribonucleico». Decidido promotor de las bases químicas de la
medicina. Pronunció la Jiménez Díaz Lecture 1983 sobre Genetic chemistry and the future of
medicine. FIGURA 6.-«Un sueño de ingeniería genética: la estrategia de Kornberg para
reemplazar un gen ausente o anormal» (Modificada de F. M. Burnet; pág. 72).
Como remache de todos estos apuntes en terapia génica, W. French Anderson (FIGURA
7) escribió, en 1968, un artículo para The New England Journal of Medicine, una de las revistas
de mayor prestigio médico, en el que postulaba como podría llevarse a cabo, algún día, la
terapia génica. Los editores rechazaron el manuscrito porque«aunque muy erudito y fascinante
[…] demasiado especulativo». Escribía French Anderson 25:
«A efectos de insertar un gen correcto en las células que presenten una mutación –– será primero
necesario aislar el gen deseado de un cromosoma normal: Luego este gen deberá ser duplicado para
proporcionar muchas copias. Y, finalmente, será necesario incorporar la copia correcta en el genoma de la
célula defectiva. .. Uno de los métodos más prometedores para lograrlo será el desarrollo de virus no
patógenos capaces de transferir el material génico desde un genoma a otro».
humanos al administrar virus de Shope (ver párrafos anteriores) en dos niñas que padecían
argininemia 27. El experimento —virogénica— supuso una conmoción generalizada; retomando
a Nirenberg, la sociedad no estaba preparada. Los más benévolos etiquetaron el experimento
de prematuro 28 o lo colocaron en el borde de lo éticamente admisible 29. Anderson y Lederbeg
apoyaron a Rogers. Lederberg 30 escribió:
«Otro aproche que podría mitigar varias enfermedades es una extensión de la utilización de cepas virales
específicas. En la actualidad su papel en medicina se confina a su uso como vacunas […] Podemos
vislumbrar la ingeniería de otros virus de tal maneta que podrían introducir información genética
compensadora en células somáticas definidas para restaurar funciones que están afectadas en un defecto
genético dado […] ¿O debemos pasar el problema a otra generación?».
Sir Frank Macfarlane Burnet (FIGURA 8), afectado por la discusión planteada, escribió
un libro 31 (Genes Sueños y Realidades) cuestionando del experimento.
«El estímulo para escribir este libro —inicia Burnet su obra— nació de la cantidad de escritos
sensacionalistas acerca del significado para el futuro de la medicina de los descubrimientos en biología
molecular».
Y ya finalizando la obra:
«Creo que, en 1970, en todas las ciencias mayores el esquema general ha sido competentemente y en
líneas generales completamente delineado. La tarea ahora es rellenar los detalles».
Burnet dejó un legado de duda que fue muy difícil vencer. Sin embargo, cuando Burnet
trabajaba en su libro, Bernard Davis comentaba:
«La genética superará los ataques actuales, igual que sobrevivió a los ataques del Partido Comunista en
Moscú y de los fundamentalistas en Tennessee. Pero mientras, si queremos evitar el peligro de cualquier
atisbo de lisenkoismo debemos defender el valor del conocimiento objetivo y verificable, especialmente
cuando entra en conflicto con dogmas políticos, teológicos o sociológicos».
____________________________________________________________________________
27.-Argininemia. Trastorno metabólico congénito del ciclo de la urea. El déficit de arginasa resulta en
hiperargininemia a hiperamonemia; los pacientes presentan crisis epilépticas y retardo psicofísico.
28.-Friedman T, Roblin R (1972) Gene therapy for human genetic disease? Science 175, 949-55.
29.-Veatch RM (1974) Ethical issues in genetics. Progress in Medical Genetics 10, 223-64.
30.-Lederberg J (1971) Genetic engineering, or the amelioration of genetic defects. Pharos Jan., 9-12.
31.-Burnet FM (1971) Genes, Dreams and Realities. Aylesbury, Bucks: Medical and Technical Publishing
Co Ltd, Chiltern House, Oxford Road.
72
Y Theodore Friedmann, otro de los pioneros, escribía 34 a raíz de una conferencia sobre
Aspectos éticos y científicos derivados de los usos humanos de la genética molecular – El
futuro de la terapia génica: una reevaluación:
«Existe el peligro de llegar a ser atrapado de tal manera por la belleza de la nueva ciencia, que la
obligación primaria de atender la salud del paciente se subordine a la seducción del trabajo científico».
Con todo, a finales de 1978, la Ciencia había logrado vadear las turbulencias; ello, gracias a
dos factores. El primero, la adquisición por los científicos de considerable cantidad de datos
que demostraban la fiabilidad del ADN recombinante y, el segundo, el trabajo de Donald
Fredrickson, el director de los Institutos Nacionales de Salud de EE.UU, que supo conducir la
travesía. Las herramientas de la genética molecular estaban listas para aislar, clonar y
caracterizar genes causantes de enfermedades. El primer protocolo autorizado de aplicación
clínica humana se inició en septiembre de 1990. El reto es desarrollar la terapia génica como
____________________________________________________________________________
32.-Watson JD, Tooze J (1981) The DNA History. A Documentary History of Gene Cloning. San
Francisco: WH Freeman and Co.
33.-Chargaff E (1976) On the dangers of genetic meddling. Science 192, 938-40.
34.-Friedmann T (1971) The future for gene therapy – a re-evaluation. Annals of the New York Academy
of Science 265, 141-52.
73
un sistema terapéutico, eficaz y seguro, de farmagenes. Este objetivo está siendo más difícil de
conseguir de lo que los investigadores habían previsto hace unos pocos años. El organismo ha
invertido muchos miles de años en aprender a protegerse de los peligros ambientales,
incluyendo la incorporación de ADN extraño en su genoma. Sin embargo, entre los agentes
patógenos, los virus han tenido relativo éxito para sortear las barreras de vigilancia y
protección, y ser capaces de insertar su material genético en las células humanas; incluso de
integrarlo en su genoma. Por ello, los esfuerzos iniciales de la terapia génica se han dirigido a
ingenierizar virus que pudieran utilizarse como vectores de transporte de genes terapéuticos a
los pacientes 35.
35.-Anderson WF (1992) Human gene therapy. Science 256, 808-13. Blaese RM, Culver KW, Miller AD,
Carter CS, Fleischer T, Clerici M, Shearer G, Chang L, Chiang Y, Tolstoshev P, Greenblatt JJ,
Rosenberg SA, Klein H, Berger M, Mullen CA, Ramsey WJ, Muul L, Morgan RA, Anderson WF (1995) T
-
Lymphocyte-directed gene therapy for ADA SCID: Initial trial results after 4 years. Science 270, 475-80.
Anderson WF (1998) Human gene therapy. Nature 392 (Sppl. 6679) 25-30.
36.-Friedman T (2000) Policy Forum: Medical Ethics. Principles for human gene therapy studies. Science
287, 2163-5.
74
reseñan en el resumen de su trabajo 37:
«Se describen líneas celulares pluripotentes, derivadas de blastocistos humanos, que tienen cariotipos
normales, expresan altos niveles de actividad telomerásica y expresan marcadores de superficie celular
específicos de células troncales embrionarias pero no característicos de otros linajes tempranos. Tras la
proliferación indiferenciada in vitro durante 4 a 5 meses, tales células mantienen el potencial de desarrollo
para formar trofoblasto y derivados de las tres capas germinales embrionarias, incluyendo epitelio digestivo
(endodermo); cartílago, hueso, músculo liso y músculo estriado (mesodermo), y epitelio neural, ganglios
embrionarios y epitelio escamoso estratificado (ectodermo). Tales líneas celulares podrían ser útiles en
biología del desarrollo, en el descubrimiento de fármacos y en trasplante médico».
Las células troncales han sido consideradas como células indiferenciadas capaces de
proliferar, autorregenerarse y producir una numerosa progenie de células diferenciadas y
regeneradoras de tejidos. Generalmente se pensó que sólo las células troncales embrionarias
son pluripotentes, dado que durante las fases más precoses del desarrollo tal plasticidad es
crítica. Numerosos datos han demostrado este supuesto y la diferenciación de células troncales
embrionarias en un amplio rango de tipos celulares está bien documentada in vivo e in vitro.
Por el contrario, el punto de vista tradicional respecto a las células troncales en el adulto
restringe su potencial regenerativo y de diferenciación a los tejidos en que residen. Son
ejemplos válidos los hepatocitos que proliferan tras hepatectomía parcial, las células troncales
hematopoyéticas que reconstruyen la población hematocítica tras irradiación letal, las células
satélites musculares que reparar el músculo esquelético dañado o los precursores
queratinocíticos que participan en la cicatrización de las heridas. Además de la capacidad de
reparación del tejido dañado, las células troncales juegan un papel clave en el mantenimiento
de la homeostasis tisular, por ejemplo asegurando las dotaciones celulares sanguínea y
cutánea. Invariablemente, los diagramas de la diferenciación de la progenie de las células
troncales del adulto han sido lineales e irreversibles, mostrando una progresión ordenada a lo
largo de una vía perfectamente definida que concluye en un tipo celular terminal diferenciado.
Sin embargo, este punto de vista del potencial celular troncal del adulto ha sido revisado
recientemente. Se ha demostrado que células derivadas de la médula ósea no solo garantizan
el reemplazamiento de los hematocitos sino que también contribuyen al mantenimiento de la
masa celular del músculo, cerebro, hígado, cerebro y endotelio vascular. Algunos trabajos
señalan un movimiento de tales células troncales en dirección opuesta y sugieren que células
derivadas del músculo o del cerebro pueden dar lugar a células sanguíneas. Células
estromales de la médula ósea, distintas de las células troncales hematopoyéticas, son capaces
de producir una multitud de tipos celulares. Aunque muchas de tales transiciones celulares se
____________________________________________________________________________
37.-Thomson JA, Itskovitz-Eldor J, Shapiro SS, Waknitz MA, Swiergiel JJ, Marshall VS, Jones JM (1998)
Embryonic stem cell lines derived from human blastocysts. Science 282, 1145-7.
75
han observado, principalmente, tras daño tisular, en algunos casos tales transiciones entre
distintos compartimientos titulares se han observado en ausencia de lesión tisular. Se conoce
desde hace décadas que células diferenciadas adultas pueden cambiar su destino. Por
ejemplo, en el adulto se produce transdiferenciación de células del iris productoras de melanina
en células productoras de cristalinas tras la extirpación del cristalino, o cuando células
musculares diferenciadas se fusionan con células maduras procedentes de cualquiera de las
tres láminas germinales embrionarias (hepatocitos endodérmicos, queratinocitos ectodérmicos
o fibroblastos mesodérmicos), la expresión de genes musculares en los núcleos no musculares
ocurre en unos pocos días. Estos experimentos, más el clonaje de anfibios y de mamíferos,
han demostrado que el estado de diferenciación de las células adultas no es fijo e irreversible,
sino que está regulado por un proceso dinámico activo que requiere regulación continua.
Tales observaciones sugieren que la biología de las células troncales puede ser más
compleja de lo hasta hace poco tiempo aceptado. El descubrimiento de que células troncales
en el adulto, inicialmente residentes en un determinado tejido pueden contribuir a la integridad
de otro en un momento dado, sugiere un grado de plasticidad en la función de las células
troncales en el adulto hasta ahora desconocido. Ello indica que cambios en el destino celular
son una propiedad natural de las células troncales en el adulto; propiedad que puede estar
involucrada en la homeostasis celular fisiológica y en la reparación del daño tisular, a lo largo
de la vida de un individuo. Aunque la frecuencia de tales acontecimientos es baja, recientes e
insospechados hallazgos sugieren que las células troncales en el adulto están en un estado de
flujo y que el concepto de células troncales tejido-específicas está obsoleto. De acuerdo con
ello, las células troncales en el adulto no sólo actúan localmente, en los tejidos en que residen,
sino que pueden ser movilizadas y reclutadas en la circulación para ocuparse en la
regeneración de diversos tejidos en sitios distantes. Incluso tipos celulares marcadamente
especializados pueden reprogramarse, revirtiendo su estado diferenciado, y contribuir al pul de
células troncales circulantes, como han demostrado estudios recientes con células musculares
y con neuronas. De acuerdo con este nuevo punto de vista, al menos algunas células troncales
del adulto tienen una gran plasticidad y son capaces de rediferenciarse en microambientes
apropiados. Factores de orientación (homing) atraen a las células troncales circulantes y, una
vez reclutadas en el sitio de interés, factores de crecimiento dirigen su reprogramación o
rediferenciación. Lo mismo es válido para células pluripotentes exógenas introducidas —vía
endovenosa o in situ— para tratar una lesión tisular. Por otro lado, la capacidad de actuar
como célula troncal puede ser una función celular compartida por numerosos tipos celulares;
de la misma manera que la práctica totalidad de las células de un organismo pueden activar un
programa apoptótico en respuesta a determinados tipos de agresión, diversas células del
organismo podrían ser capaces de de actuar como células troncales ante determinadas
señales. Por tanto, una célula troncal no es, necesariamente, una entidad celular particular sino
una función que puede ser asumida por diversos tipos celulares.
La investigación con células troncales adultas humanas sugiere que las células
multipotentes tienen un gran potencial de utilización en investigación y en el desarrollo de
terapias celulares. Por ejemplo, sería de gran utilidad el empleo de células troncales adultas en
trasplante. Si pudieran aislarse células troncales adultas de un paciente, inducir su división y
dirigir su especialización y, luego, retrasplantarlas al paciente, es indudable que tales células
pasarían desapercibidas al sistema de vigilancia inmunológico siendo aceptadas. Ello evitaría
la necesidad de acudir a blastocistos humanos como fuente de células troncales evitando la
polémica ético-legal existente. Sin embargo existen limitaciones a dicha estrategia. En primer
lugar, no todos los tejidos adultos parece que poseen células troncales disponibles; en segundo
lugar, las células troncales adultas son difíciles de aislar y purificar y existen en cantidades
mínimas; una cantidad que disminuye con la edad. Por ejemplo, células cerebrales capaces de
actuar como células troncales neurales sólo han podido ser obtenidas a partir de
76
procedimientos neuroquirúrgicos en pacientes epilépticos, lo que no es un procedimiento trivial.
Cualquier intento para usar células troncales del propio cuerpo de un paciente requiere que
tales células puedan ser, primero, obtenidas y, luego, cultivarlas en cantidad suficiente para
utilizarlas terapéuticamente. En algunas situaciones agudas puede ser que no haya tiempo
sufriente para completar el «proceso de fabricación». En otros casos, como los debidos a un
defecto genético, puede ser que el mismo defecto que se pretende combatir afecte a las
propias células troncales; en tal caso las células troncales del paciente no serán apropiadas
para el trasplante; en este caso, la combinación de terapia génica puede obviar el problema.
También, las células troncales adultas pueden albergar errores del ADN propios de las células
adultas. Además, no está claro que las células troncales de los adultos sean pluripotentes en el
sentido que lo son los blastómeros. Todo ello son puntos débiles, hoy —seguro que resueltos
mañana—, en la utilidad potencial de la terapia con células troncales adultas.
En resumen, el propósito de la terapia celular es canalizar, in vivo, células humanas
multipotentes con alta capacidad proliferativa en programas de diferenciación específicos; un
objetivo que se considera factible dentro de los próximos cinco años. Un logro más ambicioso
es la construcción de órganos, quizás un riñón o un ojo o, incluso, una parte del cerebro; esto
representa un reto mucho mayor que la “mera” generación de tipos celulares especializados.
Bastante más tiempo habrá de pasar para que la «medicina regenerativa» 38 alcance su
madurez; por ahora sólo ha sido posible ingenierizar un sucedáneo dermo-epidérmico útil en el
tratamiento de quemaduras y de úlceras de distinto tipo. Es posible especular que la
reprogramación de una célula troncal queratinocítica en cualquier otra célula troncal somática
pueda, en un futuro más o menos próximo, tratar una enfermedad específica a partir de una
simple biopsia de piel del paciente. Por otro lado, la coincidencia de las terapias génica y
celular hará, en último término, inagotable tal estrategia. Más cerca se antoja la combinación de
la ingeniería celular con andamiajes o matrices de biopolímeros a efectos de conseguir órganos
bioartificiales (ingeniería de tejidos), y de los que una vejiga urinaria ingenierizada es el primer
paso.
38.-Committee on the Biological and Biomedical Applications of Stem Cell Research. Stem Cells and the
Future of Regenerative Medicine. Washington DC: National Academy Press.
77
Las especialidades médicas y la estructura del sistema asistencial han quedado
obsoletas. Ante, por ejemplo, el caso concreto de la patología coronaria, antes sugerido, ¿qué
sentido tiene la fragmentación médica entre cirugía mínimamente invasiva, radiología
intervensionista o cardiología invasiva? Es necesario el replanteamiento de las especialidades
médicas que, a la vista del ejemplo propuesto, carecen, en la actualidad, de sentido. En el
prólogo a The Johns Hopkins University School of Medicine Curriculum for the Twenty-first
Century 39, Michael M.E. Johns escribe:
«Cuando encargué la confección de un curriculum para el sXXI, sugerí que nuestra base filosófica,
conceptual, de la educación y formación médica debería encauzarse no a formar un neurocirujano, un
médico de familia, un cardiólogo o un pediatra general, sino a crear una “célula troncal” médica
indiferenciada, lo suficientemente capaz, totipotente, para iniciar cualquier camino una vez concluida su
graduación. El nuevo curriculum ha de preparar médicos para las demandas y responsabilidades de una
nueva era médica; era de ciencia y de artes médicas».
39.-De Angelis, CD (1999) The Johns Hopkins University School of Medicine Curriculum for the Twenty-
first Century. The Johns Hopkins University Press, Baltimore.
40.-Editorial. When primun non nocere fails. Lancet 355: 2007, 2000.
41.-Goldman R, Sayson R, Robbins S, Cohn LH, Bettmann M, Weisberg M (1983) The value of the
autopsy in three medical eras. The New England Journal of Medicine 308, 1000-5.
42.-Kirch W, Schafii C (1996) Misdiagnosis at a university hospital in 4 medical eras. Medicine 75, 29-40.
78
armamento diagnóstico no han tenido una traducción práctica paralela. En las diferentes
épocas —porque las herramientas diagnósticas fueron cada vez más sofisticadas— el 10% de
las autopsias revelaron un diagnóstico importante que, de haberse conocido, hubiera
modificado el tratamiento y prolongado la vida del paciente; y otro 12% mostró un diagnóstico
clínicamente importante pero que no hubiera modificado el tratamiento. Con todo, la soberbia
tecnológica redujo considerablemente la realización de autopsias; en términos generales, el
índice de autopsias en los hospitales académicos fue del 80% en los 1960s frente al 40% en
los 80s. Hoy dia no llega al 25%.
El optimismo se mantiene gracias a un tercer estudio —«Errores diagnósticos en tres
eras médicas: un estudio necrópsico» 43— que analiza retrospectivamente los informes clínico y
autópsico de pacientes adultos elegidos al azar que fueron admitidos en un hospital
universitario y que fallecieron el hospital o tras ser dados de alta en los años 1972, 1982 y
1992. La frecuencia de errores diagnósticos se redujo de manera significativa entre 1972 y
1992; mejora debida, principalmente, a la disminución de los errores en el diagnóstico de las
enfermedades cardiovasculares, pues los errores diagnósticos en las tres principales
categorías diagnósticas —cardiovasculares, infecciones y cáncer— no muestran un
comportamiento uniforme. Sobre la base de que la precisión diagnóstica depende de la
sensibilidad y de la especificidad del proceso diagnóstico, solo las enfermedades
cardiovasculares se beneficiaron de una mejor especificidad y sensibilidad diagnósticas. Las
enfermedades infecciosas se beneficiaron de una mejor sensibilidad diagnóstica; mientras que
no hubo mejoras sustanciales en la especificidad ni en la sensibilidad para las enfermedades
neoplásicas, que eran más que aceptables en los 1970s.
La necropsia tiene el doble valor de detectar errores diagnósticos y de aportar
conocimiento aplicable a futuros casos; ello incide en el aprendizaje y añade información a la
epidemiología local de las enfermedades y al control de calidad de las exploraciones (imagen
médica, análisis químico clínico, etc.). La confirmación del diagnóstico clínico mediante la
autopsia refuerza el conocimiento clínico porque elimina la incertidumbre diagnóstica la
mayoría de las ocasiones. Otro dato a destacar es que la introducción de nuevas tecnologías
no desplaza las de la anterior generación, de tal manera que la metodología diagnóstica es
acumulativa y, aún así, no reduce el valor de la autopsia. En cualquier caso los errores son
inevitables, con lo que se imponen estrategias para mejorar la eficacia del diagnóstico médico.
La aceptación de la falibilidad y la detección de los errores es un prerrequisito para tales
estrategias.
Ante ello, la administración Clinton ordenó a las agencias federales iniciar un plan para
reducir en cinco años a la mitad los errores médicos. Tal apoyo institucional al control de
calidad del sistema sanitario es un buen síntoma. Pero a la postre, la mejora pretendida solo
ocurrirá cuando los profesionales crean y confíen en el sistema, y ello no es tarea fácil. Por
ejemplo, la Asociación Médica Americana (AMA) se opuso a la recomendación del informe del
Instituto de Medicina para que los errores médicos fueran abiertamente declarados. Si la
postura de la AMA es una buena política pública es tema de debate. Para mejor o peor, será
difícil asegurar que los errores médicos sean declarados si los médicos temen que tal
información puede empañar su reputación profesional. Ningún sistema puede erradicar
completamente los errores, pero un buen sistema puede desterrar el temor a declararlos, y ese
es el primer paso.
Pero el problema es que la estrategia sanitaria elegida es tecnológica más que social; y
cómo la sociedad percibe la fiabilidad de la técnica es muy diferente a cómo percibe la
____________________________________________________________________________
Ante la frustración por el fracaso de encontrar curas para las enfermedades prevalentes
más graves como el cáncer o la demencia, la industria farmacéutica se ha reorientado, en
parte, hacia mercados más favorables para sus productos. Ello explica el auge de los
compuestos denominados lifestyle drugs cuyo cometido es restaurar aquellas facultades o
atributos sociales que tienden a eclipsarse con la edad: la calvicie, la impotencia, el sobrepeso,
la depresión o el insomnio (TABLA II).
El debate —que está en mantillas— sobre lo inútil en medicina 45 puede conducir a una
refrescante revisión de la relación médico-paciente y restaurar el sentido común y la realidad
en la percepción que la sociedad tiene de los poderes de la medicina. La medicina tiene
grandes poderes, pero limitados; y la profesión médica tiene importantes obligaciones, también
limitadas. Inutilidad médica significa que un tratamiento no ofrece beneficio terapéutico alguno
a un paciente. En otras palabras, los pacientes aceptan con dificultad su humanidad y, por
tanto, los enfermos se resisten a morir. Por su parte, los médicos aceptan a regañadientes los
límites de su poder; la muerte representa el fracaso médico. Esta situación es consecuencia del
impacto de la tecnología que condiciona el modo de pensar la medicina. Este imperativo
tecnológico es el término utilizado las más de las veces para describir esta nueva manera de
pensar —si es que puede considerarse «pensar» la palabra correcta—: si existe un medio,
instrumento o fármaco, que produzca un efecto, tal medio debe utilizarse. Tal actitud
condiciona que la tecnología sea el foco de atención en vez del paciente. La definición de
inutilidad médica debe ser un consenso social, no técnico, que incorpore elecciones éticas; es
inútil toda actitud médica que no incluye el principio de beneficio para el paciente.
44.-Wurtman RJ, Bettiker RL (1995) The slowing of treatment discovery. Nature Medicine 1, 1122-5.
45.-Schneiderman LJ, Jecker NS (1995) Wrong Medicine. Doctors, Patients, and Futile Treatment.
Baltimore: The Johns Hopkins University Press.
80
poblacional a lo ancho del mundo y que varían desde registros completos a proyectos a
pequeñas escala sobre enfermedades específicas como la malaria. El reto para la salud
pública es tejer datos dispares sobre situaciones dispares en poblaciones dispares para
conseguir una valoración global de las condiciones de salud y de enfermedad que guíen la
política de salud en el próximo siglo.
Del amplio espectro de modelos de predicción utilizados, el más aceptado es el de la
Agencia Internacional de la Energía (AIE) de la Organización para la Cooperación y el
Desarrollo Económico. Así como otros modelos utilizan diversas hipótesis de desarrollo, el de
la AIE considera que no habrá grandes cambios con relación al clima socioeconómico en el
que ahora vivimos y por lo que se refiere a su modelo como de Business As Usual (BAU), algo
así como «la vida sigue igual».
Con este modelo de partida, el Global Burden of Disease Study (GBD) 46, iniciado en el
año 1992, es un trabajo de colaboración entre la Escuela de Salud Pública de Harvard, la
Organización Mundial de la Salud y el Banco Mundial; los primeros resultados se dieron a
conocer en el año 1996. El Estudio contempla, junto a la detección de las causas más
frecuentes de muerte, dos acciones específicas: 1) asegurar que las estimaciones y las
proyecciones se basen en métodos epidemiológicos y demográficos objetivos, y 2) incorporar
sistemáticamente información sobre situaciones con desenlace no fatal en la valoración del
estatus de salud; ello utilizando una medida de tiempo de los años de vida saludable perdidos
por mortalidad prematura o vividos con una enfermedad discapacitante y para lo que se ha
elegido la métrica denominada DALYs (Disability-Adjusted Life Years) (TABLA III).
____________________________________________________________________________
46.-Murray CJL, Lopez AD (Eds) (1996) Global Burden of Disease and Injuries Series. Volume I: The
Global Burden of Disease. A comprehensive assessment of mortality and disability from diseases,
injuries, and risk factors in 1990 and projected to 2020. Harvard School of Public Health, World Health
Organization, and The World Bank. Murray CJL, Lopez AD (1996) Evidence-based health policy –
Lessons from the Global Burden of Disease Study. Science 274, 740-3. Lopez AD, Murray CCJL (1998)
The global burden of disease, 1990-2020. Nature Medicine 4, 1241-3. Mc Michael AJ, Beaglehole R
(2000) The changing global context of public health. Lancet 356, 495-9.
81
Pero a medida que aumentan las expectativas de vida en los países desarrollados y
nos acercamos al límite máximo, será cada vez más difícil demostrar que una intervención
farmacológica pueda incrementar de forma significativa las expectativas de vida de la
población. Así, se ha calculado que la eliminación del cáncer solo aumentaría en 1-3 años la
esperanza de ida al nacer, y si, además, se suprimieran la ateroscleosis y sus secuelas, tal
expectativa supondría un aumento de 18 años. Si no pueden añadirse años a la expectativa de
vida, el objetivo de la «lucha» contra el envejecimiento debería ir dirigido a promover y
mantener un estado de bienestar somático, psíquico y social adecuado para que el individuo
pueda disfrutar una vida más feliz y placentera esos años que los avances de las ciencias
biomédicas y de las nuevas tecnologías nos permitan ganar. En suma, dieta, estilo de vida y
fármacos -¿cuáles?- deberían ser capaces de prevenir el deterioro progresivo de las funciones
orgánicas a fin de que cada vez un número mayor de personas alcance la ageresia o vejez
robusta.
PERSPECTIVAS
Los avances conseguidos en el estatus sanitario global, medidos estos por las
ganancias generalizadas en la expectativa de vida y por las reducciones en las muertes
prevenibles, se han acompañado por un incremento en los diferenciales de salud y riqueza
entre y en los diferentes países. Las inversiones en investigación y desarrollo en ciencias de la
salud se mantienen principalmente en problemas sanitarios que afectan al 10% de las
poblaciones Occidentales más ricas, y solo el 10% de los fondos disponibles en I+D sanitario
87
se destinan a mejorar la salud del 90% de la población del planeta. Esta disparidad, referida
como el “desequilibrio 10/90” requiere atención urgente. El Global Health Forum, convocado en
1997 para reconducir esta situación, intenta desplazar fondos desde proyectos de baja
prioridad a otros de alta prioridad; esto es, desde proyectos que benefician a unos pocos a los
inciden en la vasta mayoría. Por su parte, la OMS intensifica sus prioridades en las
enfermedades comunicables y en los principales factores de riesgo común que las favorecen.
Merece la pena recordar un discurso de Simone Veil, ante la OMS, que tituló «Los
hospitales son para los enfermos» 47. Ello, porque la Medicina, en sí misma, es un medio y no
un fin. Apuntaba Veil:
«El desarrollo de nuevas tecnologías no debe hacernos olvidar el objetivo prioritario y el único propósito de
toda la actividad hospitalaria: el servicio a los seres humanos».
El objetivo de prolongar la vida junto con un insaciable deseo de más salud – el principal
mercado de la eritropoyetina no lo representan los enfermos con insuficiencia renal crónica sino
los deportistas de elite - es una receta para la monomanía y un pozo sin fondo. El objetivo
debería ser fomentar la salud, evitar la muerte prematura y eliminar el sufrimiento.
El problema es, como señala García Baca en su Elogio de la Técnica 48, que:
«La técnica no reconoce límites naturales y menos aún fronteras políticas, sociales, económicas, religiosas,
etc. No las reconoce ni respeta, ni de palabra ni de obra. La técnica es, por intención y por programa,
superación de tales límites».
____________________________________________________________________________
47.-Veil, S (1987) Hospitals are for patients. World Hospitals 23 (3&4) 17-20.
48.-García Baca J (1987) Elogio de la Técnica. Barcelona: Anthropos.
48.-Hardin G (1968) The tragedy of the commons. Science 162, 1243-5.
88
BIBLIOGRAFÍA
Lecturas recomendadas
Los títulos escogidos son libros generales que, en ningún caso, exigen conocimientos
técnicos. Toda aproximación a la “Doble Hélice” pasa por la lectura obligada de los libritos
de James Watson (La Doble Hélice) y de Francis Crick (Qué Loco Propósito); dos puntos
de vista, en ocasiones antagónicos, de la búsqueda del secreto de la herencia. Por otro
lado, tres libros representan un inestimable complemento: “Vital Forces”, de GK Hunter,
es –dice el autor- “la historia de una revolución científica, que comenzó alrededor de 1770
y concluyó en la década de los 1970s”. Es un libro sencillo, claro y conciso. “The Path to
the Double Helix”, de R Olby, combina los enfoques científico e histórico; bien
documentado, requiere cierto esfuerzo por parte del lector. “The Eighth Day of Creation”,
de HF Judson, es uno de los mejores libros de ciencia “semipopulares”. Es una excelente
historia, humana y científica, de la biología molecular. Otro libro de indiscutida relevancia,
por el impacto que su puso en su momento, es “¿Qué es la Vida? de Edwin Schrödinger.
Por su parte, la revista Nature incluye, en su número correspondiente al día 23 de enero
de 2003, una sección especial: The double helix – 50 years.
Chambers, Donald A (Ed). DNA: The Double Helix. Perspective and Prospective at Forty Years.
Annals of The New York Academy of Sciences, Volume 758, 1995.
Comenta Chambers que, durante su periodo de formación universitaria, aprendió el valor de la
lectura de la literatura original; primero los grandes clásicos y, luego, la ciencia. Sobre esta base
Chambers organizó una gran reunión, con los protagonistas de primera mano, para conmemorar el
cuadragésimo aniversario del descubrimiento de la estructura y su significado del ADN. Dividido en
nueve partes, las cuatro primeras se dedican a los fundamentos de la biología molecular; el quinto sirve
de puente: biología molecular, celular e integradora. Las partes VI-VIII se refieren a la incidencia del ADN
en la medicina. La última agrupa tres capítulos de reflexión.
Crick, Francis Horace Compton. What Mad Pursuit. A Personal View of Scientific Discovery.
Weindenfeld & Nicolson, Londres, 1989. Traducción –Qué Loco Propósito. Una visión personal
del descubrimiento científico- de Adela Goday y Pere Puichdomènech para Tusquets Editores-
Superínfimos 14, Barcelona, 1989.
“El propósito del libro es recoger mis experiencias -escribe Crick- antes y durante el periodo
clásico de la biología molecular, que comprende desde el descubrimiento de la doble hélice en 1953
hasta 1966, cuando quedó descifrado el código genético”. Considerado como un modelo de ciencia
popular, que aborda de manera rigurosa el desarrollo de las ideas y de la experimentación que
condujeron a la estructura del ADN y al descubrimiento del código genético, no ha alcanzado la
popularidad del de su compañero Watson, más “espontáneo”.
Dennis, Carina (Commissioning editor), “The Double helix – 50 years”, Nature 421 (Nº 6921):
363-372 (2003).
“Como preludio de las numerosas celebraciones que, en todo el mundo, conmemorarán el 50
aniversario del descubrimiento de la doble hélice de ADN, Nature presenta una colección de ensayos
dedicados a rememorar los impactos histórico, científico y cultural, de una estructura molecular
reveladora”. Los dieciséis trabajos que conforman dicha sección se estructuran en cuatro bloques:
introducción - la molécula eterna; perspectivas históricas; ADN en medicina y sociedad, y ADN - la
molécula biológica. Un quinto bloque acoge los facsímiles de los trabajos aparecidos el 25 de abril de
1953.
Hunter, Graeme K. Vital Forces. The Discovery of the Molecular Basis of Life. Academic Press,
San Diego, 2000.
Fuerzas Vitales narra la historia de la revolución bioquímica; una búsqueda de doscientos años
encaminada a desvelar los secretos de la química celular. Un periodo de rápidos avances en el
conocimiento humano que influyó y cambió nuestra visión de la naturaleza de la vida, y que sentó las
bases de la medicina moderna y de la biotecnología. La historia está contada de manera clara,
comprometida y absorbente; acerca al lector a los fascinantes y sorprendentes avances en los conceptos
y teorías de los últimos 200 años, e introduce a sus protagonistas. Describe el descubrimiento de las
bases moleculares de la vida a través de las historias de los científicos involucrados, incluyendo las
relevantes figuras de Louis Pasteur, Gregor Mendel, Linus Pauling o Francis Crick. Combinando ciencia
89
y biografía en una amena narración cronológica, el autor nos pone en contacto con los éxitos y los
fracasos, las colaboraciones y los feudos, las teorías fallidas y las brillantes intuiciones que produjeron la
revolución molecular en biología.
Judson, Horace F. The Eighth Day of Creation. Makers of the Revolution in Biology (Expanded
Ed) Cold Spring Harbor Laboratory Press, Cold Spring Harbor, Nueva York, 1996.
Esta exhaustiva y bella historia de la biología molecular introduce en los experimentos, en las
rivalidades y, sobre todo, en las mentes de los mejores científicos que la construyeron. El autor tuvo la
oportunidad de hablar con casi todos los involucrados, por lo que el Octavo Día es una historia oral de
una revolución científica; puede ser, la mejor historia jamás contada de la biología molecular.
Nature, “Twenty-one years of double helix”, Nature 248: 721, 766-788 (1974).
Editorial, 721. Crick F., “The double helix: a personal view”, págs. 766-769. Pauling L., “Molecular basis
of biological specificity”, págs. 769-771. Gurdon J. B., “Molecular biology in a living cell”, págs. 772-776.
Chargaff E., “Building the Tower of Babble”, págs. 776-779. Stent G. S., “Molecular biology and
metaphysics”, págs. 779-781. Olby R., “DNA before Watson-Crick”, págs. 782-785. Brenner S., “New
directions in molecular biology”, págs. 785-787. Klug A., “Rosalind Franklin and the double helix”, págs.
787-788. Windsor D. A., “Molecular biologist come of age in Aries”, pág. 788.
Olby, Robert. The Path to the Double Helix. The Discovery of DNA (Corrected and enlarged Ed)
Dover Publications Inc., Nueva York, 1994. Traducción -El camino hacia la doble hélice- de la
edición original de 1974, por Natividad Sánchez Sáinz-Trápaga para Alianza Editorial, S. A.,
Madrid, 1991.
“Pienso –comentó Francis Crick- que ningún futuro historiador de la ciencia, en el área de la
biología, podrá ignorar el presente libro; tanto por la concienzuda investigación de Olby como por el buen
juicio con que aborda el tema”. Combinando unos aproches científico e histórico, el Profesor Olby capta
la emoción de la conceptualización y de la evolución de las ideas que condujeron al descubrimiento del
secreto genético de la vida. La historia discurre a lo largo de varias líneas principales: macromoléculas
lineales; ácidos nucleicos; transformaciones bacterianas; la evolución intelectual de los físicos; químicos
y biólogos, y la combinación de diferentes disciplinas científicas que desbloqueó los secretos
estructurales del ADN.
Portugal, Franklin H., y Cohen, Jack S. A Century of DNA: A History of the Discovery of the
Structure and Function of the Genetic Substance. MIT Press, Cambridge, Massachusetts, 1977.
Al contrario de la creencia popular, el descubrimiento de la estructura química y de la función
biológica del ácido desoxirribonucleico no ocurrió durante la segunda mitad del siglo XX, ni fue
conseguido por un pequeño y selecto grupo de científicos. La construcción del modelo de doble hélice
por Watson y Crick fue la culminación de un proceso que comenzó hace cien años con el aislamiento de
la “nucleína” por Friedrich Miescher en 1869 y que Marshall Nierenberg remató, cien años después, con
la formulación del código genético. La razón de tan larga aventura fue lo inadecuado de la tecnología del
siglo XIX y de la primera mitad del veinte para abordar el estudio de las sustancias a nivel molecular.
Hoy, cualquier estudiante de enseñanza secundaria tiene acceso a un microscopio de más calidad del
que dispuso Miescher. Cada nuevo avance en las técnicas analíticas –centrifugación, cristalografía por
rayos X, etc.- abrió nuevas áreas de información y mayores posibilidades para la investigación. Pero el
libro no es sólo una historia académica; es también la historia de los investigadores con sus
motivaciones y prejuicios, con sus lealtades y egoísmos. En suma, de los factores humanos que
condicionan la empresa humana. “Un siglo de ADN” apasiona a legos y a científicos.
Schrödinger, Erwin What is life? The Physical Aspect of the Living Cell. Cambridge University
Press, Cambridge, USA, 1944. Traducción -Qué es la Vida- de Ricardo Guerrero y
presentación y notas críticas por MG Velarde, R Margaleff, P K Feyerabend, J Senté-Josa y R
Guerrero, para Editorial Avance SA-Teoría 6, Barcelona, 1976.
Françoise Jacob escribió de éste libro: “Schrödinger ha escrito un librito maravilloso que se llama
¿Qué es la vida? en el que analiza, con una precisión absolutamente extraordinaria, las propiedades de
los cromosomas, tanto desde el punto de vista físico como biológico. Fue el primero en hablar de código
y de estructura y señalar que el material genético debía tener una estructura comparable a lo que se
denomina un cristal aperiódico, es decir, un cristal en el que las unidades de repetición no son
absolutamente idénticas sino muy parecidas. En efecto, la repetición y la perpetuación de algunas
unidades simples engendran una gran complejidad. Algunos años después de la aparición del libro de
Schrödinger hicieron explosión las dos bombas sobre Hiroshima y Nagasaki. Muchos físicos, cansados
de una Física que requería una tecnología cada vez más compleja y decepcionados por la utilización
90
militar terrorífica que se hacía de la Física, se dispusieron a escuchar a Schrödinger que les prometías
años apasionantes en Biología”.
The Josiah Macy Jr. Foundation. DNA from the Beginning. En: www.dnaftb.org/dnaftb/ (acceso:
febrero 2003).
“ADN desde el comienzo” está organizado alrededor de conceptos básicos. La ciencia que
subyace en cada concepto es explicada mediante animación, imágenes, entrevistas, problemas,
biografías y conexiones.
Watson, James Dewey. The Double Helix. Atheneum Publishers, Nueva York, 1968.
Traducción –La Doble Hélice- de Adolfo Martín y Eduardo Cruelss, para Biblioteca Científica
Salvat, Barcelona, 1994.
De este libro dijo Life Magazine: "Vivaz, insolente, sincero, a menudo al borde del escándalo ...
destinado a terminar con el mito de que la gran ciencia debe ser fría, impersonal o distante". Es un libro
escrito, a propósito, por un científico sobre los científicos y, a la vez, es la historia interna de uno de los
tres descubrimientos trascendentes (mecánica cuántica por Plank y relatividad por Einstein son los otros
dos) del siglo apenas concluido. Más fascinante es, quizás, cómo un joven americano de 23 años vio su
oportunidad para la inmortalidad científica y la aprovechó.
Allen, Garland E. Life Science in the Twentieth Century. John Wiley & Sons Inc [History of
Science Series. George Basalla & William Coleman, eds]: Nueva York, 1975.
A pesar del título, el libro no es un texto de historia de la biología del siglo XX, sino la historia de
unas pocas áreas seleccionadas cuya relevancia fue decisiva en la época anotada. Los temas elegidos:
influencia del darwinismo; orígenes de la embriología experimental; herencia y evolución; fisiología
general; convergencia de disciplinas; desarrollo de la bioquímica, y origen y desarrollo de la biología
molecular. Debe destacarse el capítulo dedicado a bibliografía.
Astbury, William Thomas, “Molecular biology or ultrastructural biology?”, Nature 190: 1124
(1961).
Beadle, George Wells, “Genes and chemical reaction in Neurospora”, en: Nobel Lectures in
Molecular Biology 1933-1975. Foreword by David Baltimore. Elsevier, Nueva York, 1958, págs.
51- 63.
Ésta y las otras Conferencias Nobel reseñadas, representan revisiones de primera mano cuya
lectura proporciona una visión completa de la empresa comprometida en desenmarañar el secreto de los
fundamentos de la biología molecular.
Chargaff, Erwin (1979) How genetics got a chemical education. Annals of the New York
Academy of Sciences 325: 345-360.
Crick, Francis Horace Compton, “The structure of the hereditary material”, Scientific American
191 (Nº 4): 54-61(1954).
Delbrück, Max Henning, “A physicist’s renewed look at biology. Twenty years later”, en: Nobel
Lectures in Molecular Biology 1933-1975. Foreword by David Baltimore. Elsevier North-Holland:
Nueva York, 1977, págs. 363-372.
Fischer, Hermann Emil, “Synthesen in der Purin- und Zuckergruppe”, en: Les Prix Nobel en
1902. Imprimerie Royale: Stockholm, 1905, págs. 1-18.
Hall, Stephen S, “The double helix. Old school ties: Watson, Crick, and 40 years of DNA”,
Science 259 (Nº 5101): 1532-1533 (1993).
Hershey, Alfred D, “Genes and hereditary characteristics”, Nature 226: 697-700 (1970).
91
Kossel, Albrecht, «Über die Chemische Beschaffenheit des Zellkerns », en: Les Prix Nobel en
1910. Imprimerie Royale, Stockholm, 1911, págs. 1-14.
MaCarthy, Maclyn. The Transforming Principle. Discovering that Genes Are Made of DNA. A
volume of The Commonwealth Fund Book Program under the editorship of Lewis Thomas. W.
W. Norton $ Co., Nueva York, 1985. On-line ed: The Oswald T. Avery Collection en
http://profiles.nlm.nih.gov/CC/A/A/O/F/_ccaaosf.pdf (acceso: febrero 2003).
Este libro es el primero en la serie “The Commonwealth Fund Book Program”. Escrito en primera
persona, por uno de los protagonistas, trata del descubrimiento, por Avery, MacLeod y McCarthy, en la
década de los 1940s, de que los genes están hechos de ADN. Once capítulos exploran, en profundidad,
el acontecimiento, desde los “años preparatorios” (capítulo I) hasta las “consecuencias” (capíitulo XII).
Mirsky, Alfred E., “The discovery of DNA”, Scientific American 218 (Nº 6):78-88 (1968).
Morgan, Thomas Hunt, “The relation of Genetics to Physiology and Medicine”, en: Nobel
Lectures in Molecular Biology 1933-1975. Foreword by David Baltimore. Elsevier North-Holland,
Nueva York, 1977, págs. 67-77.
Muller, Hermann Joseph, “The production of mutations”, en: Nobel Lectures in Molecular
Biology 1933-1975. Foreword by David Baltimore. Elsevier North-Holland, Nueva York, 1977,
págs. 25-42.
Nature, “Thirty years of DNA – and after”, Nature 302 (Nº 5909): 557-558 (1983).
Olby, Robert, “Francis Crick, DNA, and the Central Dogma”, Daedalus 99: 938-987 (1970).
Pauling, Linus, y Hayward, Roger. The Architecture of Molecules. WH Freeman and Co., San
Francisco, 1964.
Las 57 moléculas dibujadas por el artista Roger Hayward y comentadas por Linus Pauling, han
suscitado comentarios unánimes: “Un libro técnicamente sólido y estéticamente bello” (The Science
Teacher). “ Un fascinante trabajo de arte …” (Nature). “Grandes ideas y una tremenda cantidad de duro
trabajo son resumidas en la aparente simplicidad de este libro” (Science). “Los autores lo han planteado
para captar el interés por la ciencia de jóvenes estudiantes. Pero los químicos ya hechos se sentirán
jóvenes de nuevo ..¿Compre el libro! Seguro que tendrá problemas para adquirirlo” (Journal of Chemical
Education). “Uno de los libros más fascinantes que el revisor haya visto” (School Science Review).
Perutz, Max Ferdinand, “Origins of molecular biology”, New Scientist 85 (Nº 1192): 326-
329(1980). “The birth of molecular biology”, New Scientist 92 (Nº 1561): 38-41(1987).
Ravin, Arnold W, “The gene as catalyst; the gene as organism”, Studies in History of Biology 1:
1-45 (1977).
Sandler, Iris, y Sandler, Laurence, “On the origin of mendelian genetics”, American Zoologist
26: 753-768 (1986).
Sturtevant, Alfred H. A History of Genetics. Cold Spring Harbor Laboratory Press: Cold Spring
Harbor, Nueva York, 1967. On-line Ed: www.esp.org/books/sturt/history/title3.
html – acceso: noviembre 2002.
La reimpresión de este clásico permite acceder a una fuente imprescindible de la historia de la
genética. El autor conjunta, en una síntesis de primera mano, las experiencias de los pioneros con
quienes tuvo el privilegio de trabajar codo con codo.
Tatum, Edward Lawrie, “A case study in biological research”, en: Nobel Lectures in Molecular
Biology 1933-1975. Foreword by David Baltimore. Elsevier, Nueva York, 1977, págs. 67-77.
92
Wilkins Maurice Hugh Frederick, “The molecular configuration of nucleics acids”, en: Nobel
Lectures in Molecular Biology 1933-1975. Foreword by David Baltimore. Elsevier, Nueva York,
1962, págs. 147-174.
Burnet M. Genes Dreams and Reality. New York: Basic Books, 1971.
García Barreno, P., Medicina Virtual. En los bordes de lo real. Editorial Debate S. A., Madrid,
1997. “Tecnociencia médica”, en: La Ciencia en Tus Manos. P. García Barreno, ed. Sociedad
Estatal Nuevo Milenio y Editorial Espasa Calpe S. A., Madrid, 2000, 4ª ed, págs. 519-55.
“Ciencias biomédicas”, en: La Ciencia y la Tecnología ante el Tercer Milenio. J. M. Sánchez
Ron, ed. Sociedad Estatal Nuevo Milenio, Madrid, 2002, Tomo I, págs. 371-502.
A pesar de los impresionantes avances científico-técnicos que caracterizan nuestros días,
médicos y hospitales se quejan de que no pueden satisfacer lo que ha llegado a ser una demanda sin
límites de la asistencia sanitaria. A la vez, los profesionales de las ciencias de la salud intentan descubrir
productos médicos eficaces; para conseguirlo disponen de poderosas herramientas: bioingeniería,
biotecnología, bioinformática, … Todo ello exige desarrollar una nueva concepción de la atención
médica; un escenario renovado en el que los diferentes actores lleguen a alianzas que consigan un
servicio integral de salud.
Golub, E. S., The Limits of Medicine. How science shapes our hope for the cure. Times Books-
Randon House, Nueva York, 1994.
Repaso histórico del cambio de la medicina inducido por las revoluciones científicas. Muestra el
lado humano de la ciencia y de sus protagonistas; las excentricidades y genialidades de los sucesos
espectaculares y de los fracasos humillantes. Asegura que los límites de la medicina son conceptuales,
no técnicos.
Hall, S. S., Mapping the Next Millennium. How Computer-Driven Cartography is Revolutionizing
the Face of Science. Vintage Books, Nueva York, 1993.
La aportación fundamental del libro de Stephen S. Hall es que amplia la noción de mapa. Junto a
los mapas terrestres, los hay fisiológicos, matemáticos y cosmológicos. La nueva cartografía ayudada
por computadoras está revolucionando la faz de la ciencia del mismo modo que, siglos atrás, los mapas
de Mercator revolucionaron el aspecto de la tierra. Hall indica que el punto de encuentro de la
exploración del espacio, de la tomografía médica, de la modelación del efecto invernadero y del genoma
humano, es el mapa; la imagen domina, hoy, todas las ciencias.
Institute of Medicine, 2020 Vision. Health in the 21st Century. Institute of Medicine 25th
Anniversary Symposium. National Academy Press, Washington, 1996.
En 1995, los EE.UU gastaron 900 mil millones de dólares –el 14% del producto interior bruto- en
sanidad. Ello en una paradoja interesante. La mayoría de los ciudadanos acceden a un buen sistema
sanitario; todo el mundo considera a los EE.UU. líderes indiscutibles en I+D biomédico; todos los
profesionales del mundo quisieran reciclarse en hospitales y universidades norteamericanas. A la vez, 40
millones de ciudadanos carecen de seguro médico, y otros 30 millones tienen una cobertura sanitaria
insuficiente. Se ha detectado la reemergencia de enfermedades prevenibles como la polio y el
sarampión, y continúan los efectos devastadores pero igualmente evitables de la toxicidad por plomo, el
retorno de la tuberculosis y la explosión de las enfermedades de transmisión sexual. ¿Cómo puede
mejorarse la gestión de los recursos para mejorar la atención sanitaria de los ciudadanos?.
Kevles, D. J. y Hood, L., (eds.), The Code of Codes. Scientific and social issues in the Human
Genome Project. Harvard University Press, Cambridge, London, 1992.
El genoma humano es la clave que nos hace humanos: define las posibilidades y las limitaciones
como miembros de una especie. El objetivo último del proyecto, al que el libro dedica toda su atención,
es el mapa detallado de nuestro genoma. Tal cartografía revolucionará el conocimiento del ascenso del
hombre y de la expresión de sus rasgos normales y patológicos. Código de Códigos es la exploración,
por personajes autorizados, del hecho en sí y de las posibles consecuencias del proyecto en relación con
la ética, la ley, la sociedad, y la ciencia, la tecnología y la medicina. Como comenta Sydney Brenner, si el
estudio del genoma proporcionará el conocimiento necesario para comprendernos y los temores que
pueda desencadenar también serán positivos, ¿que más podemos pedir?
93
Le Fanu, J., The Rise and Fall of Modern Medicine. New York, Carroll & Graf Pub. Inc., 2000.
Una crónica apasionante de los principales logros de la medicina moderna entre 1945 y la
década los1970s, y un examen crítico del estancamiento del progreso médico –no de la ciencia médica-
desde entonces. El Dr. Le Fanu demuestra el poder del método científico para ampliar las fronteras del
conocimiento médico y, a la vez, identifica los riesgos a los que se enfrenta la medicina del futuro.
Reilly, P. R., Abraham Lincoln’s DNA and Other Adventures in Genetics. Cold Spring Harbor
Laboratory Press, Cold Spring Harbor, Nueva York, 2000.
Phil Reilly es médico, genetista y abogado. También es escritor. Su nuevo libro reúne
veinticuatro relatos sobre historia, justicia, comportamiento humano, plantas y animales, enfermedades y
cuestiones éticas. Representan una amplia variedad de asuntos, pero con un tema común: lo que
aprendemos del estudio de los genes humanos y las implicaciones de esas lecciones para nuestra
sociedad, nuestras relaciones con la naturaleza y nuestra conciencia de lo que significa ser humano.
Reynolds, R. y Stone, J., (eds), On Doctoring. Stories, poems, essays. Simon & Schuster,
Nueva York, 1991.
On Doctoring es una colección extraordinaria de historias, poemas y ensayos, escritos por
médicos y por profanos sobre el enfermar y el sanar y sobre el vivir o el morir. Recoge la totalidad de las
emociones humanas, desde "Morir no es un orgullo" de John Donne hasta "Laringe" de Neruda. En un
momento en que la Medicina se hace más y más técnica, el libro capta lo que de ella sigue fascinando.
"Esperamos -dicen los editores- que este libro anide entre los textos de anatomía o de bioquímica, de
medicina interna o de cirugía".
Schneiderman, L. J. y Jecker, N. S. J., Wrong Medicine. Doctors, patients, and futile treatment.
The Johns Hopkins University Press, Baltimore, 1995
Una mujer de 33 años en estado vegetativo permanente es mantenida viva por medios
artificiales; ello, a pesar de siete años de lucha por parte de sus padres. Un bebé nace sin cerebro; nuca
tendrá el mínimo atisbo de conciencia; sin embargo, la madre obtiene el apoyo de la Corte Suprema para
que se mantenga a su hija con vida. Un hombre armado entra en un hospital y amenaza al personal
mientras desconecta a su hijo de los sistemas que lo mantienen, artificialmente, con vida; lo coge en
brazos hasta que muere. .. Los autores examinan, de la mano de casos reales, los aspectos éticos del
tratamiento médico extremo.
Thomasma, D. C. y Kushner, T., (eds), Birth to Death. Science and Bioethics. Cambridge
University Press, Cambridge, Great Britain, 1996.
La Biología ha irrumpido abruptamente en los últimos años demandando, entre otras, respuestas
éticas continuamente. El libro, dirigido al lector no especializado, revisa los principales avances en
biología y en medicina y explora sus implicaciones éticas. Desde el nacimiento hasta la muerte el libro
recorre la biología humana: genética, reproducción, desarrollo, trasplante, envejecimiento, muerte y
utilización de animales en investigación y el impacto de la humanidad sobre el planeta. Cada capítulo
discute, desde los puntos de vista científico y ético, los avances científicos más recientes.
Weatheral, D., Science and the Quiet Art. Medical Research & Patient Care. Oxford University
Press, Oxford, 1995.
¿Por qué los productos de la ciencia tardan tanto en dar frutos útiles para el paciente?. David
Weatheral muestra su preocupación por la creciente desilusión del público, de los políticos e, incluso, de
los médicos, por la infructuosa batalla contra el cáncer, la diabetes o los ataques cardiacos; por el
insaciable apetito de noticias por parte de los medios de comunicación; por la dependencia de la
medicina de la alta tecnología; por la espiral de los costes sanitarios, y por la disminución de los
aspectos humanísticos de la atención médica. Los descubrimientos trascendentes no llevan un orden;
94
suelen depender de actitudes personales en centros de excelencia donde el conocimiento goza de gran
independencia y en los que, a menudo, surgen, repentinamente, nuevas áreas de conocimiento por
intereses coincidentes de muy diferentes profesionales. Es un libro de fácil lectura y lectura obligada para
entender la evolución del arte sosegado.
Whittemore, H., Your Future Self. A Journey to the Frontiers of Molecular Medicine. Thames
and Hudson Inc., Nueva York, 1998.
En la actualidad, los científicos exploran el universo intracorporal, incluso intracelular e in vivo, de
manera tal que está cambiando la percepción de nuestro cuerpo. Los avances biomédicos han
impulsado técnicas de imagen capaces de cartografiar nuestro genoma o nuestras redes neuronales. Si
el libro de Linus Pauling y Roger Hayward “The Architecture of Molecules” –referido en la bibliografía
correspondiente al Capítulo 2- sorprendió por la belleza de sus dibujos, “Your Future Self” es el primer
libro dirigido al público lego que utiliza las técnicas avanzadas de imagen para ilustrar un fascinante viaje
hacia la nueva era de la medicina molecular.
Wyke, A., 21st Century Miracle Medicine: Robosurgery, Wonder Cures, and the Quest for
Immortality. Plenum Trade, Nueva York, 1997.
La tesis de éste libro, que está dirigido a un público culto aunque sin formación científica, es que
la medicina del siglo veinte ha fracasado; ello, porque los ciudadanos no se sienten menos enfermos que
hace tres décadas. De acuerdo con Alexandra Wyke, una reputada periodista –doctorada en bioquímica-
que escribe para el prestigioso semanario The Economist, el público lo sabe y demanda soluciones
tecnológicas. Aunque el subtítulo promete la búsqueda de la inmortalidad, la medicina milagro de Wyke
que eliminará las enfermedades prevalentes del siglo XX, sólo añadirá una década a nuestra expectativa
de vida. La visión del futuro en que consigan tales objetivos es controvertida. Wyke basa el fracaso
médico sobre el hecho de que las cardiopatías, el cáncer, la diabetes y otras enfermedades crónicas han
incrementado, utilizando la década de los 1970s como referencia. Sin embargo, cuando volvemos la
vista a los comienzos de los 1900, las cosas son diferentes: la mortalidad infantil ha decrecido
espectacularmente, y la expectativa de vida se ha duplicado. ¿Dónde están los límites?