Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Introduccion Al Diseno Racional de Farmacos PDF
Introduccion Al Diseno Racional de Farmacos PDF
racional de fármacos
http://creativecommons.org/licenses/by-nc-nd/2.5/ar/legalcode
ISBN 978-959-16-0647-1
Editorial Universitaria
Calle 23 entre F y G, No. 564
El Vedado, Ciudad de La Habana
Cuba CP 10400
e-mail: torri@reduniv.edu.cu
Sitio Web: http://revistas.mes.edu.cu
Nota a la Edición
El presente texto surge como resultado directo de los trabajos realizados en la tesis: Nuevos
descriptores atómicos y moleculares para estudios de estructura-acitividad. Aplicaciones, de Ramón
Carrasco Velar. El trabajo directo con los alumnos y el conocimiento de la necesidad de aprendizaje de
los mismos ha llevado a los autores a elaborar este libro, el cual constituye una herramienta para quienes
pretendan adentrarse en el campo del diseño de fármacos con la ayuda de la computador. Espero que
les sea de utilidad.
El Editor
Índice
INTRODUCCION 2
INTRODUCCION
La historia del medicamento se remonta a los orígenes de la sociedad humana. Desde los primeros
tiempos el hombre ha acudido a la naturaleza para obtener sustancias que, o bien le ayudaran a paliar
su dolor, los síntomas de sus enfermedades... o bien le facilitaran la obtención del alimento (veneno
para la caza), sus relaciones sociales y religiosas (estimulantes y alucinógenos), etc. Esta
circunstancia ha permitido disponer de una amplia información, que sometida a la observación atenta
y al estudio crítico, ha dado lugar al planteamiento de ideas que, debidamente desarrolladas, han
llevado a la obtención de nuevos medicamentos, de sustancias líderes. Esta historia previa es la causa
de que en la actualidad, el modelo de aproximadamente la mitad de los productos de que se dispone
sea de origen natural. Modelos que, obtenidos a partir de un organismo vivo, han sufrido diferentes
modificaciones en el laboratorio, encaminadas a obtener moléculas más potentes y menos tóxicas que
las originales, las cuales en realidad no habían sido diseñadas para un tratamiento específico.
El descubrimiento de un nuevo medicamento y su desarrollo posterior, son dos fases que condicionan
el logro de un nuevo producto, útil en la terapéutica. Se considera, de manera general, que el
descubrimiento comprende toda la fase necesaria para que podamos asegurar que el compuesto tiene
un perfil deseable de actividad; comprende desde la síntesis, el aislamiento de la fuente natural, o la
obtención biotecnológica y toda la fase preclínica, incluida la toxicología; de manera tal que nos
confirmen que el compuesto es aceptable en cuanto eficacia y seguridad para su ensayo en seres
humanos. Comprende en un sentido más amplio, un gran conjunto de actos que culminan en la
utilización terapéutica de un nuevo medicamento (Figura1).
Esta fase de descubrimiento, o sea, desde la obtención hasta la primera aplicación en humanos, se
estima que dura aproximadamente 42,6 meses (3,55 años) como promedio, en aquellos países y
transnacionales farmacéuticas con una amplia infraestructura investigativa. En países con un nivel
menor de desarrollo, esta fase alcanza aproximadamente unos 5-6 años.
La fase de desarrollo comprende la de los estudios clínicos y la del registro farmacéutico, y se estima
que duren entre 68.6 meses y 30.3 meses respectivamente. Todo este largo proceso, desde su
obtención hasta su registro comprende un total de 11.8 años de investigación, con un costo promedio
de 231 millones de dólares por cada nuevo medicamento que salga al mercado.
Lo más alarmante es que sólo una de cada 10 000 moléculas ensayadas pasa a la fase de desarrollo,
una de cada 100 000 supera los ensayos clínicos y logra registrarse y sólo 3 de cada 10 nuevos
medicamentos registrados recupera su inversión inicial. Esto genera una triste realidad, por cada
millón de moléculas que se inician en esta larga cadena para la obtención de un nuevo medicamento,
sólo tres recuperan la inversión inicial. Por tal motivo el diseño racional de fármacos, constituye una
herramienta casi indispensable en el desarrollo actual de nuevos medicamentos, contribuyendo a un
aumento de las posibilidades de éxitos y a un decrecimiento de los costos.
Ensayos Preclínicos
Desarrollo de la formulación
Farmacocinética y metabolización
(Modelos animales)
Preparación Farmacéutica
Estudios de
A veces, estudios toxicológicos
tolerancia local
en terceras especies.
Estudios
microbiológicos
adicionales
INICIO DE LA FARMACOLOGÍA
Reconociendo la importante contribución del azar en el resultado positivo de este esfuerzo, es preciso
matizar que su base está sólidamente anclada en un diseño inteligente y racional ya que si sólo se
acude al azar, es poco probable obtener medicamentos eficaces y seguros.
Todo esto provoca, que los especialistas que tomarán a la química farmacéutica como profesión
dentro del área del conocimiento científico, deberán no sólo especializarse en los aspectos
relacionados con la síntesis y la estructura química, sino que tendrán que ser capaces de dominar el
conjunto de ciencias biológicas afines, que se encuentran en la interface del descubrimiento y el
desarrollo de un nuevo fármaco. El encabezamiento de una encuesta realizada a los químicos
farmacéuticos de las principales industrias farmacéuticas del mundo en 1995, comenzaba con la
frase. “Los químicos farmacéuticos involucrados en descubrimiento de los nuevos fármacos deben
ser sobresalientes químicos en la síntesis orgánica y comprender las aproximaciones modernas al
análisis de la relación estructura-actividad, además de la necesidad de dominar los conceptos de la
interface con otras disciplinas involucradas en el proceso del diseño de fármacos” hecho que
evidencia la importancia del conocimiento de las ciencias biológicas en los científicos de esta área de
la ciencia1.
En estas encuestas los resultados reflejaron que los trabajadores de la química farmacéutica proponen
la necesidad el conocimiento de la modelación molecular, bioquímica, farmacología, fisiología y
biología molecular. Los porcientos de votaciones para estas disciplinas alcanzaron valores superiores
al 30 % de los encuestados.
1
Wess, G. DDT, Vol 1, No. 12, 1996.
En tal sentido, la unión internacional de química pura y aplicada (IUPAC) publicó en ese mismo año
1995 el conjunto de cualidades que deseaban los representantes de las principales compañías
farmacéuticas que tuvieran sus químicos farmacéuticos2. Estas habilidades son:
♦ Capacidad de inserción en grupos interdisciplinarios, como interface entre los científicos del área
biológica (farmacología, bioquímica, biología molecular etc.)
♦ Habilidad en la búsqueda de nuevos fármacos.
♦ Conocimiento de cómo sintetizar moléculas convenientes a ser evaluadas en ensayos biológicos.
♦ Entendimiento de las razones y la necesidad de porqué generar nuevos compuestos.
♦ Conocimiento del diseño de fármacos.
♦ Perspicacia a la hora de establecer relaciones de estructura-actividad, aún con insuficientes datos.
♦ Conocimiento de campos colaterales (fisiopatología, biología celular y genética)
♦ Rápida familiarización con las nuevas tecnologías.
En este acápite se considerará de forma breve con algunos ejemplos, la metodología de este enfoque,
las circunstancias y cadenas de hechos que llevan al descubrimiento de nuevos compuestos
considerados como líderes o cabezas de serie y su posterior desarrollo, la aplicación en definitiva, de
las técnicas que de forma general se conocen como “Variaciones estructurales”.
Aunque en la búsqueda de una cabeza de serie se pueden aplicar varios métodos los más empleados
son:
• El empleo de productos activos presentes en drogas utilizadas en la medicina tradicional.
• Estudio de nuevos compuestos provenientes de la síntesis química o de la biotecnología.
Ambos métodos requieren de la existencia previa de una amplia batería de ensayos biológicos
cuidadosamente diseñados, que permitan determinar con rapidez y de manera inequívoca la
actividad biológica de los nuevos compuestos.
2
Ganellin, CR., Mitscher, LA., Topolis, IG. Annu. Rep. Med. Chem., Vol 30, 1996.
J.C. Escalona, R. Carrasco y J. A. Padrón 6
A estas informaciones se le pueden unir, como se planteó anteriormente, las obtenidas del estudio
del mecanismo de acción de los compuestos, así como consideraciones relativas a la bioquímica de
la enfermedad y procesos del organismo enfermo sobre el cual van a actuar los productos.
Una vez encontrada y definida la cabeza de serie se hace necesario la exploración de la serie por
modulación de su estructura con el fin de encontrar un producto mejor. El objetivo que se propone es
encontrar nuevos y mejores medicamentos con superior actividad, mejor biodisponibilidad, menor
toxicidad y reacciones secundarias mínimas. O sea, en otras palabras se refiere a ¿qué voy a
modificar en el compuesto líder?. Esto se conoce como “Variación Molecular”.
a. Protección frente a la acción de sistemas enzimáticos: Las β-lactamasas son enzimas que
desdoblan el núcleo β-lactámico de penicilinas y cefalosporinas inactivándolas. Para eso ocurre
una reacción entre el grupo hidroxilo de un resto serina de la enzima que realiza un ataque
nucleofílico sobre el átomo de carbono carbonílico del anillo β-lactámico. El grupo sustituyente
en la posición 7 del anillo cefalosporánico, juega un papel primordial para lograr la conformación
espacial que impida la acción de las β-lactamasas. Obsérvese que la sola sustitución en R’ de un
=N-OH por un =N-OCH3 hace que disminuya 100 veces la potencia de los compuestos, debido a
una disposición espacial diferente, que en el caso de los segundos, no logra impedir el ataque de
la enzima.
S
H2N
N
CCOHN 7 S
R'
N
O R3
-
COO
’
R3 R E. coli S. aureus
MIC MIC
-(CH)2CH2OCONH2 =NOH 0.025 0.1
-(CH)2CH2OCONH-CH3 =NOH 0.025 0.1
-(CH)2CH2OCONH2 =NOCH3 0.2 0.8
-(CH)2CH2OCONH-CH3 =NOCH3 0.2 0.8
NCH3 +
N(CH3)2
O O
C CH C CH
CH2OH CH2OH
(III) (IV)
En este tópico se enumerarán algunas de las estrategias a seguir para aumentar la eficacia del
compuesto líder. La pregunta ahora es: ¿cómo modificar el compuesto líder?. Entre las estrategias
más comunes se encuentran:
En un enunciado un tanto simplista, es razonable el hecho de que compuestos con una misma
actividad biológica, deban poseer también una misma estructura, o al menos puntos comunes en las
partes responsables de la actividad, por lo que la sustitución de grupos con igual distribución
electrónica en la última capa e igual deslocalización del orbital puede conducir a la obtención de
nuevos compuestos de interés farmacológico.
Este método es aplicable a las sulfas antibacterianas (V), en la cual la similitud electrónica del grupo
sulfamida al grupo carboxilo del ácido p-aminobenzoico (PABA) (VI) provoca la “equivocación” de
la bacteria. Ahora bien, no siempre las sustituciones bioisostéricas generan una equidad en cuanto a
actividad. Ejemplos de este caso lo representan los antibióticos β-lactámicos, en la serie de las
penemas (VII), oxapenemas (VIII) y carbapenemas (IX), en los que el cambio del átomo de azufre
por el de oxígeno, aumenta la reactividad del anillo β-lactámico y lo convierte en una molécula
“suicida” que inactiva a las β-lactamasas. La sustitución entonces del oxígeno por el etileno (CH2)
disminuye nuevamente esta reactividad, incluso a valores inferiores que los de las penemas, por lo
que genera moléculas menos activas, aunque aún con utilidad farmacológica.
En general, el término bioisosterismo se aplica para todo el conjunto de analogías que se pueden
establecer entre dos agrupaciones atómicas, incluyendo tanto elementos estéricos como electrónicos,
y en general, todos cuantos sirvan para definir la estructura de una molécula.
O O
H2N C H2N S NHR
O O
(V) (VI)
R S R O R
N N N
O COOH O COOH O COOH
(VII) (VIII) (IX)
Esta técnica consiste en variar al compuesto líder con modificaciones limitadas tanto en extensión (la
molécula debe mantener las características iniciales) como en número (posiciones a modificar). Sin
embargo a pesar de restringirse aparentemente las posibilidades de variación con esta técnica, es muy
frecuente encontrar resultados positivos en su aplicación.
N N
CH2 CH2
CH2 CH2
CH2 CH2
N(CH3)2 N(CH3)2
Imipramina Promazina
Fig. #2. Cambios de actividad secundaria por extensión del ciclo.
HO
HO O OH
Morfina Levofenol
CH 3 CH 3
N H 3C N
CH3
C OC2H 5
C OC2H5 O
O
Meperidina Metadona
• Unión de elementos activos: Se trata de unir en una molécula, restos que han demostrado ser
activos en otras moléculas.
De este tipo de estudio se desprende una evolución en el peso relativo de las diferentes ciencias
implicadas en el diseño de nuevos medicamentos. Se observa en primer lugar un aumento progresivo
en la importancia que tienen los métodos biológicos como elemento de apoyo y decisión en el
planteamiento de las estrategias de síntesis, llegando a ser auténticas piezas claves en muchos casos.
También se deduce la necesidad de disponer de técnicas cada vez más avanzadas en el campo del
análisis instrumental, como base para la elucidación estructural de los nuevos compuestos. Y siempre
como elemento fundamental, la colaboración estrecha entre investigadores de diferentes
profesiones por la posibilidad de ofrecer puntos de vistas desde diferentes perspectivas.
.
I.3 SITUACIÓN ACTUAL Y TENDENCIAS FUTURAS.
3
Beeley, LJ., Duckworth, DM. DDT, Vol 1, No. 11, 1996.
Esta novedosa técnica, propuesta por Geysen en 1980, se basa en la combinación de moléculas
pertenecientes a un grupo químico con otras pertenecientes a otro grupo. En un ejemplo sencillo se
tienen cuatro moléculas: A1, A2, B1 y B2. Las moléculas A1 y A2 son estructuralmente relacionadas, y
B1 y B2 pertenecen a otra clase de molécula. Si ambas clases de moléculas pueden reaccionar entre sí
entonces las combinaciones posibles serían A1-B1, A1-B2, A2-B1 y A2-B2.
Este ejemplo puede parecer muy simple, pero la realidad es que normalmente se trabaja con al menos
30 compuestos de cada grupo, esto generaría un total de 30x30= 900 nuevos compuestos. Si a estos
se le agrega otro grupo químico de 30 compuestos se obtendrían un total de 27 000 nuevos
compuestos (30x30x30), todos ellos obtenidos de forma rápida4. Este enfoque, aplicado a la síntesis
de péptidos, proporciona en la práctica, la posibilidad de crear “librerías” de oligopéptidos del orden
de millones de compuestos a partir de la enorme cantidad de combinaciones posibles, las cuales se
incrementan con la cantidad de aminoácidos que se empleen en la síntesis.
Independientemente del avance de las técnicas de obtención de nuevos productos activos, el método
de las variaciones estructurales siempre estará como método de apoyo en el diseño de estrategias de
síntesis, formando parte de los equipos multidisciplinarios decididos a encontrar los mejores
medicamentos, pues en su esencia constituye un método racional eficaz en el diseño de nuevos
fármacos.
4
Plunkett, MJ., Ellman JA. Scientific American, 1997.
J.C. Escalona, R. Carrasco y J. A. Padrón 12
En principio, se pueden considerar tres tipos de métodos teóricos de cálculo para la obtención de la
geometría de una molécula: los métodos ab initio, los semiempíricos y los de mecánica molecular. La
elección de uno u otro método depende fundamentalmente del tamaño de la molécula, la naturaleza
del problema planteado y del tiempo de cálculo requerido.
En el caso de la mecánica molecular, aunque es el menos exacto de todos, requiere de menos tiempo
de cálculo con respecto a los semiempíricos y ab initio, y reproducen con buena precisión los valores
experimentales referentes a geometrías y energías. Este método se basa en los formulismos de la
espectroscopía vibracional, representando la molécula como un modelo mecánico de masas (núcleos)
unidas por fuerzas armónicas o elásticas (enlaces), las cuales se considera que poseen valores de
longitud y ángulo ideales o naturales que condicionan la geometría. Entonces la energía E de la
molécula se define como la desviación de los parámetros ideales y es minimizada siguiendo un
algoritmo de optimización:
E = E r + Eθ + Eϖ + EVDW + E D + E H
Ecuación 1.
Dado que la mecánica molecular supone una interpolación de los datos experimentales existentes,
generalmente predice correctamente las geometrías moleculares de los compuestos bajo estudio.
Estas geometrías optimizadas se pueden utilizar como datos de entrada para los cálculos mecánico
cuánticos con el objetivo de comenzar la optimización total con una estructura previamente refinada.
Además su uso principal en la actualidad es en el campo de las macromoléculas, en las cuales los
métodos de cálculos mecánico-cuánticos se tornan prohibitivos en cuanto a costo computacional
Por otra parte, el tratamiento cuántico de la materia esta basada en el principio de incertidumbre de
Heisenberg, según el cual no es posible conocer simultáneamente la posición y el momento de una
partícula. Por esto es necesario abordar el problema desde el punto de vista estadístico, dada la
necesidad de poder encontrar una partícula en un lugar determinado y en un momento dado.
Otro concepto fundamental de la mecánica cuántica es que todas las cantidades dinámicas asociadas
a cada partícula están cuantificadas. La energía de una partícula tiene un valor discreto, el cual es
múltiplo de una energía básica y la constante de Plank. La ecuación fundamental es la de
Schrödinger, que para el átomo de hidrógeno viene dada por la ecuación:
Para los átomos multielectrónicos, la ecuación de Schrödinger, no puede ser resuelta, pues no es
posible la separación de las variables. Para ello es preciso acudir a la expresión de Hartree, que
considera cada electrón independientemente, moviéndose en el campo del resto de los electrones y de
los núcleos. Teniendo en cuanta el principio de exclusión de Pauli, según el cual no pueden existir
más de dos electrones en una misma órbita, con dos espines diferentes, se obtiene la expresión de
Hartree-Fock; la cual expresada en forma analítica, no matricial, origina la ecuación de Roothaan.
En párrafos anteriores hicimos mención de que existen dos métodos principales de cálculos
mecánico-cuánticos, en dependencia de las aproximaciones que se realizan:
Los métodos ab initio con el modelo hamiltoniano nos brindan una representación completa de todas
las interacciones no relativísticas entre el núcleo y los electrones de la molécula, soluciones no
disponibles en la ecuación de Schrödinger. La utilización de este algoritmo de cálculo hace que los
métodos ab initio necesiten un elevado tiempo de cómputo, que va a ser proporcional al número de
electrones de la molécula, dependiendo por lo tanto de la naturaleza de los átomos y del tamaño de la
misma. Sirva como ejemplo la molécula de metano, para la cual es necesario resolver un total de
1080 integrales, 1035 de ellas dielectrónicas.
La gran mayoría de los cálculos ab initio utilizan la aproximación del orbital, definida en el método
de Hartree-Fock. Ellos incluyen interacciones configuracionales (CI), campos autoconsistentes
multiconfiguracionales (MC SCF), la teoría de correlación por pares de electrones (CPMET), y la
teoría de las perturbaciones.
Una alternativa de cálculo mecánico-cuántico lo ofrecen los métodos semiempíricos. Estos métodos
han sido desarrollados dentro de la teoría de los orbitales moleculares (SCF MO), pero sobre la base
de simplificaciones y aproximaciones introducidas al algoritmo de cálculo, que hacen que los
tiempos de cómputo en computadoras normales (incluso microcomputadoras), se vea drásticamente
reducido con respecto a los métodos ab initio, permitiendo una mayor utilización de los mismos. Hoy
J.C. Escalona, R. Carrasco y J. A. Padrón 14
1. Que sea lo suficientemente simple para poder calcular moléculas relativamente grandes.
2. Que mantenga las principales interacciones intermoleculares: atracción por los núcleos y
repulsión entre los electrones.
3. Que los resultados del cálculo puedan ser interpretados, permitiendo la construcción de métodos
cualitativos adecuados.
4. Que compensen por parametrización las insuficiencias del método Hartree-Fock.
La principal aproximación que realizan los métodos semiempíricos es que ellos desprecian las
integrales de solapamiento, teniendo solamente en cuenta los electrones de valencia de cada uno de
los átomos integrantes de la molécula, considerando los electrones internos como parte del núcleo no
polarizable. Así, mientras el método semiempírico NDDO calcula un total de 741 integrales para el
propano, un método ab initio deberá resolver un gran total de 38 226 integrales para la misma
molécula. Esto en tiempo de cálculo se traduciría en que, para realizarlos en una computadora con
capacidad de un millón de operaciones por minuto, el cálculo semiempírico duraría no más de 5
minutos contra un total de 5 horas para el ab initio en la propia molécula de propano. En la actualidad
se cuenta con computadoras de mayor potencia y velocidad, con lo que es posible la realización de
cálculos ab initio en un tiempo mucho menor que el expresado anteriormente.
En principio, cualquier método semiempírico puede ser utilizado para el cálculo de la geometría
optimizada de una molécula. El primer método aplicado fue el de Hückel en 1931, luego le siguió el
PPP en 1935. A partir de este momento se han ido creando nuevos métodos de cálculos, cada uno de
los cuales se va haciendo más complejo por el desarrollo lógico que va experimentando la
computación, permitiendo realizar cada vez más, operaciones complejas en un menor intervalo de
tiempo.
5
Karelson, M., Lobanov, VS. Chem. Rev., Vol 96, 1996.
los anteriores, pero todavía existe una reducción sustancial de las repulsiones electrónicas,
utilizando un conjunto mínimo de electrones de valencia, obviando todas las integrales que
implican el solapamiento de orbitales atómicos, excepto las integrales de resonancia
monocéntricas y las integrales monocéntricas de intercambio. En estos métodos y en el método
CNDO, las integrales de repulsión entre los orbitales atómicos del átomo A y cualquiera del
átomo B, forman un conjunto igual, tanto si son del tipo s, p, σ ó π.
• Los métodos M.N.D.O (modified neglect of diatomic overlap), el AM1 (Austin model 1) y el
PM3 (parametric model 3) están basados en la correcta inclusión del solapamiento de un centro,
negando u obviando solamente el solapamiento diferencial diatómico. A diferencia de los
métodos CNDO, INDO y MINDO estos métodos consideran un número adicional de integrales
bicéntricas. Así, para cada par de átomos no similares es necesario calcular 22 integrales a
diferencia de una única integral a calcular en los métodos CNDO, INDO y MINDO. Según
Dewar, autor de los métodos MNDO y AM1, el método MNDO no describe correctamente la
energía de los enlaces por puentes de hidrógeno ni la de los aniones, así como sobrestima las
repulsiones electrónicas. Estas dificultades son mejoradas por el método AM1 sin que ello
incremente el tiempo de cómputo. Posteriormente Stewart, uno de los colaboradores de Dewar
realizó una reparametrización del método AM1 generando así el PM3. No obstante no se ha
logrado demostrar la superioridad de uno con respecto al otro (AM1 y PM3), por lo que en la
literatura actual es común encontrarse trabajos que utilizan uno u otro método indistintamente, sin
que eso atente contra la calidad de los resultados.
Por los motivos anteriormente descritos, los métodos semiempíricos han tenido un amplio uso en el
diseño de fármacos, toda vez que son métodos que reproducen en gran medida las propiedades reales
de las moléculas, invirtiendo para ello, poco tiempo de cálculo; a diferencia de los métodos ab initio
en los que el tiempo de cálculo resulta en realidad una gran limitante. Sin embargo, es necesario
resaltar que los cálculos ab initio son los que reproducen con mayor fiabilidad las características
estructurales de las moléculas, divergiendo en no más de un 2% con respecto a los datos
experimentales.
De manera general, los métodos que relacionan la estructura química con la actividad biológica
asistidos por computadoras pueden dividirse en dos grandes categorías: los Métodos de Modelación
Molecular ó SAR (Structure Activity-Relationships) y los Métodos QSAR (Quantitative Structure
Activity-Relationships).
Los métodos SAR (Structure Activity-Relationships) consideran las propiedades de las moléculas en
tres dimensiones y son importantes en ellos aspectos como el análisis conformacional, la mecánica-
cuántica, los campos de fuerzas y los gráficos moleculares interactivos. Estos últimos permiten la
representación y la manipulación de la molécula en tres dimensiones, lo que proporciona una
información espacial que es esencial para comparar moléculas y para estudiar la interacción entre
ligandos y receptores macromoleculares. Estos estudios SAR son utilizados no sólo en el diseño de
nuevos fármacos, sino que es aplicable al estudio de mecanismos de acción de los fármacos y a otras
ramas de la ciencia como la ingeniería de proteinas y la química de polímeros.
J.C. Escalona, R. Carrasco y J. A. Padrón 16
Independientemente de la vía que se utilice para lograr un nuevo fármaco (ver capítulo anterior) el
químico farmacéutico tendrá al final una nueva estructura química que estará destinada a interactuar
de manera precisa con un blanco molecular, ya sea un receptor de membrana, un canal iónico, una
enzima o una proteina transportadora. En la mayoría de los casos, la nueva molécula identificada no
parece a primera vista similar a otras conocidas y de igual actividad, sin embargo el blanco molecular
es capaz de reconocer en ellos características similares, por lo que es una tarea del químico
farmacéutico identificar aquellos aspectos que tienen en común estas moléculas que le permiten ser
identificadas por el blanco biológico y por tanto generar una respuesta farmacológica. En estas
circunstancias, el análisis estructural comparativo ayudado por computadoras constituye una
herramienta importante en la identificación de estos aspectos similares.
La búsqueda en una serie de moléculas de los aspectos estructurales indispensables para lograr la
unión al receptor y experimentar una actividad farmacológica se conoce como búsqueda del
farmacóforo. Este no es más que el conjunto de grupos químicos, unidos o no entre sí, que todas las
moléculas activas sobre un mismo receptor tienen en común, y que son esenciales para el
reconocimiento por el mismo. Es común asociar al farmacóforo como un conjunto de átomos y no
como un conjunto de formas y propiedades electrónicas que son los aspectos identificados por las
enzimas y los receptores. El concepto de bioisosterismo tiene una alta aplicabilidad en el diseño de
fármacos debido a esta característica.
1. El compuesto debe ser metabólicamente estable, y capaz de ser transportado hasta el sitio de
interacción con el receptor. Este es el caso de compuestos aparentemente óptimos para una
determinada actividad sin embargo resultan inactivos o poco activos por problemas de
biodisponibilidad.
2. El compuesto debe ser capaz de asumir la conformación farmacófora, siendo importante el por
ciento que el mismo representa en el equilibrio conformacional de la molécula. Así, confórmeros
farmacóforos energéticamente estables presentarán una mayor actividad que aquellos que, debido
En este caso, el trabajo está destinado a la búsqueda de las secuencias en la estructura química de
múltiples ligandos que se unan a un mismo receptor. Para esto, se utilizan una serie de programas
que permiten la visualización tridimensional de los ligandos, a través de los cuales, se pueden realizar
rotaciones, traslaciones y operaciones de superposición de las moléculas. En sentido general se
pueden definir cinco métodos computacionales a partir de los cuales puede definirse la estructura de
un farmacóforo:
En el análisis de estructuras análogas y mapeo del receptor se llevan a cabo dos pasos fundamentales.
En el primer paso es posible llegar a detectar, por superposición de un conjunto de estructuras,
aquellas regiones de las moléculas que son indispensables para la actividad, y aquellas que son
vulnerables a ser sustituidas con variaciones pequeñas en la afinidad. La información así recopilada
puede orientar sobre la naturaleza de los grupos funcionales necesarios para la interacción con el
receptor. En un segundo paso, la hipótesis establecida es verificada por determinación de cual es la
disposición tridimensional coincidente de estos grupos (conformaciones) para los compuestos en
estudio. El arreglo tridimensional obtenido para los grupos indispensables se convierte en un
candidato a farmacóforo, el cual debe ser posteriormente evaluado en moléculas activas sobre el
mismo blanco molecular y no incluidas en el estudio. El farmacóforo así obtenido puede ser
consolidado por un análisis de cargas y estableciendo los potenciales electrostáticos del mismo.
Adicionalmente, es recomendable calcular el volumen del sitio de unión que está realmente
disponible para ser ocupado por los ligandos. El volumen mínimo lo proporciona la unión de los
volúmenes de todas las moléculas activas en aquellas conformaciones que sirvieron para proponer el
farmacóforo. Una vez conseguido esto, se debe probar con moléculas que posean estos mismos
grupos funcionales y sin embargo tengan muy poca o ninguna afinidad por el receptor. En el caso de
que una molécula sea capaz de adoptar una conformación energéticamente razonable, en la cual los
grupos farmacóforos se encuentren correctamente alíneados con los compuestos activos, una
J.C. Escalona, R. Carrasco y J. A. Padrón 18
explicación alternativa posible sería entonces el análisis del volumen molecular de la misma. Si este
volumen es superior al calculado para el resto de las moléculas, entonces esta seria una causa
razonable de la inactividad del mismo.
Este tipo de estudio necesita de un análisis conformacional riguroso de cada una de las moléculas a
analizar, pues puede ser que para un determinado fármaco, la conformación activa no sea la más
estable termodinámicamente, debido a que la energía libre de asociación supera generalmente la
energía necesaria para que el ligando sufra un cambio conformacional. Esta limitante, hace que este
tipo de estudio sea muy complicado y que los resultados a obtener no sean siempre satisfactorios,
pues cada conformación energéticamente accesible, presupone una disposición tridimensional
diferente de los grupos candidatos a interaccionar con el receptor. Es por eso que este tipo de análisis
debe ir siempre acompañado de un método quimiométrico, en aras de reducir el número de
conformaciones a analizar.
Una forma común de paliar esta dificultad es la búsqueda de un análogo rígido que tenga este mismo
mecanismo de acción, plegando el resto de las moléculas a la conformación impuesta por él. No
obstante, existen casos en los que no se dispone de un análogo de este tipo y otros, en los que este
análogo rígido no es tan efectivo famacológicamente, generando resultados, en este último caso, con
un grado de error proporcional al grado de afinidad presentado por esta molécula.
Este método desarrollado inicialmente por Crippen y col.6 necesita de un riguroso análisis
conformacional. En este tipo de estudio se proponen por superposición molecular, distancias óptimas
a las que se deben encontrar los grupos capaces de interaccionar con el blanco molecular. Como la
matriz de distancia no varía ni con la rotación ni con la traslación, también es aplicable la
superposición con análogos rígidos. Con la información del volumen molecular anteriormente
descrito, se pueden además dar explicaciones acerca de las diferencias entre agonistas y antagonistas.
6
Crippen, GM. Et al. J. Med. Chem., Vol22, 1979.
Cuando la geometría y la naturaleza del sitio de unión se han calculado, es posible obtener por
diseño, compuestos con mayor capacidad de unión al receptor, pudiéndose calcular además, la
energía de unión y predecir la energía con la que el nuevo compuesto interaccionará con el blanco
molecular. Como complemento, se han diseñado algoritmos computarizados para buscar nuevas
clases de compuestos con una determinada actividad, comparando bibliotecas de fragmentos
moleculares de estructuras conocidas y seleccionando aquellas que mayores posibilidades tienen de
ajustarse a las medidas previamente calculadas para el sitio de unión.
Para que ocurra la formación del complejo ligando-receptor, debe ocurrir el reconocimiento del
potencial electrostático del ligando por el receptor. Esto hace que este tipo de estudio brinde una
información importante a la hora de determinar el farmacóforo.
El cálculo del mapa del potencial electrostático de una molécula puede ser llevado a cabo por
métodos de cálculo mecánico-cuánticos, ab initio o por métodos de cálculos de carga basados en el
incremento de la electronegatividad. No obstante, debe tenerse en cuenta en el análisis
conformacional que se realice, que el potencial electrostático es altamente dependiente de la
conformación adoptada por el ligando, y por tanto, los resultados derivados de él dependerán en gran
medida de los confórmeros empleados en el establecimiento del farmacóforo y de la efectividad del
método empleado para el análisis conformacional.
Independientemente de los resultados que estos tipos de análisis generen, la calidad en la obtención
de los farmacóforos es menor que en aquellos casos en los que la estructura del blanco farmacológico
es conocida, por lo que su contribución al descubrimiento de nuevas moléculas tiene un alcance
limitado. No obstante, en la actualidad las principales determinaciones de estas secuencias se realizan
con la utilización de estos métodos, por la generalmente escasa información sobre las moléculas
dianas.
Un modelo farmacóforo ideal debe ser lo suficiente explicativo y predictivo para poder llenar los
siguientes criterios:7
1. Incluir y explicar las diversas series de compuestos químicos reconocidos como activantes del
receptor en estudio.
2. Contener al menos un representante rígido y por otro lado representantes flexibles en los que las
conformaciones de mínima energía y otras conformaciones secundarias puedan ser analizadas.
3. Debe proponer la razón de la pérdida de actividad en los análogos inactivos con respecto a las
estructuras activas.
4. Debe ser capaz de discriminar estereoisómeros, pues la estereoespecificidad es la principal
característica de los receptores.
5. Debe ser distintivo entre agonistas y antagonistas.
7
Wermuth, CG., Langer, T. Pharmacophore identification, 3D QSAR in drug design, Cap I. Ed. Leiden, Germany,
1993.
J.C. Escalona, R. Carrasco y J. A. Padrón 20
6. Debe ser validado en su capacidad predictiva en el diseño de nuevos y más potentes fármacos de
estructuras totalmente novedosas.
Las limitaciones fundamentales de este tipo de estudio estriban en que se discriminan las posibles
uniones alternativas que puedan ocurrir entre el ligando y el receptor, o incluso la unión en diferentes
sitios del propio receptor. Además, se ignora las afinidades relativas perdiendo información sobre la
magnitud de la interacción.
Los primeros en describir una estructura y una conformación detallada para una estructura celular
fueron los famosos genetistas Watson y Crick en 1953, con sus trabajos sobre el ADN. La doble
hélice del mismo, y la complementariedad que debe existir entre los pares de nucleótidos hace que el
ADN sea un blanco farmacológico de suma importancia, al que se pueden unir pequeñas y medianas
moléculas tanto por intercalación en su doble hélice como impidiendo la formación de la misma.
Por otro lado, la primera descripción detallada sobre la estructura y conformación de una proteina
data desde 1958, cuando Kendrew caracterizó por cristalografía de rayos X a la mioglobina de
ballena. Teniendo en cuenta que una gran cantidad de fármacos realizan su acción por unión a
enzimas o receptores peptídicos, es que este tipo de información estructural sobre las proteinas es de
gran utilidad en el diseño de fármacos.
Con estos resultados es posible conocer la naturaleza de la unión, la flexibilidad del receptor, y las
interacciones que mantienen al ligando unido al mismo, pudiendo estimarse por tanto la energía de
estabilización de este complejo, y además, el aporte por separado, de cada una de las regiones del
ligando. Mediante este tipo de estudio, es posible definirse entonces de manera más precisa y exacta,
la naturaleza del farmacóforo. Además, la lectura en computadoras de estos datos del complejo
fármaco-receptor, permitirá la manipulación del ligando y la inserción de otros ligandos en la cavidad
de unión, pudiendo analizar la naturaleza de la interacción entre estos nuevos sustratos con el
receptor. Esto permite también la inserción de estructuras construidas o diseñadas para su ajuste
exacto al receptor, siendo fuente de generación de nuevas entidades famacológicamente activas.
Otra de las utilidades que brinda el conocimiento de los receptores estriba en la posibilidad de
estudiar la naturaleza de otras estructuras o receptores análogas a él cuya estructura tridimensional se
desconozca. Esta técnica se conoce como modelado de receptores farmacológicos.
Teniendo en cuenta que la mayoría de los datos de proteinas provienen de cristalografía de rayos X,
la cual se obtiene en estado cristalino, hace que el modelado de proteinas o de receptores
farmacológicos afronte dos problemas básicos:
Estos métodos están basados en el empleo de técnicas de correlación entre la estructura química y la
actividad biológica. En este tipo de técnica, a las que el uso común han designado con las siglas
QSAR (derivadas del término anglófono Quantitative Structure-Activity Relationships)8, la actividad
biológica es interpretada como función de diferentes aspectos de la estructura química, y por lo tanto
dependiente de ésta como se analizará más adelante.
8
. Kubinyi H., Methods and Principles in Medical Chemistry Vol. 1. QSAR: Hansch Analysis and related approaches.
Editorial: VCH Verlag. RFA y VCH Publishers NY USA. Editor, H.F.Hebel, (1993).
J.C. Escalona, R. Carrasco y J. A. Padrón 22
La actividad biológica del fármaco, producto de su interacción con el receptor, es una función de las
características estructurales de la molécula. El modelo extratermodinámico de Hansch brinda una
explicación matemática del fenómeno en la siguiente ecuación:
donde A es la actividad y fh(Xh), fe(Xe), fs(Xs) son funciones de índices o parámetros hidrofóbicos,
electrónicos o estéricos respectivamente. El término extratermodinámico proviene de que las
relaciones se describen en términos termodinámicos, aunque no se deducen de sus leyes.
Cuando se dispone de un prototipo, es preciso diseñar una serie de exploración, que debe estar
constituida por un conjunto de análogos del prototipo, para establecer las primeras relaciones
estructura-actividad. Los miembros de la serie de exploración han de ser sintetizados y evaluados en
la actividad biológica de interés.
Los miembros de la serie de exploración están constituidos por un núcleo común, y unos
sustituyentes o fragmentos variables, que son característicos de cada producto de la serie. Dichos
sustituyentes variables han de ser identificados por descriptores, que serán utilizados como variables
independientes (Xi) en el modelo. Los valores de actividad biológica (A) –expresados regularmente
en forma logaritmica- se utilizan como variable dependiente.
Serie de exploración
Identificación Actividad
Sustituyentes Biológica
Tratamiento de la muestra
Modelo matemático
Productos óptimos
La calidad de una serie de exploración viene definida principalmente por dos aspectos:
1. Disimilitud de la serie. Los productos de la serie deben ser, respecto a los parámetros elegidos,
diferentes entre sí. No tiene sentido intentar estudiar cómo influye una característica sobre la
actividad si sólo se estudian productos similares respecto a esta característica. Además, puesto
que la serie debe ser una muestra del espacio experimental, el rango de variación de las
características dentro de dicha serie debe ser equiparable a la que existe en el espacio
experimental.
2. Ortogonalidad de la serie. Los productos deben escogerse de tal forma que la variación en las
características se produzca de manera independiente. Si la variación de una propiedad X1 viene
siempre acompañada de la variación en otra propiedad X2, no es posible conocer si el cambio de
actividad de unos a otros productos se debe al cambio en la propiedad X1 ó en la propiedad X2.
En estas situaciones se dice que las propiedades X1 y X2 se encuentran correlacionadas en la
J.C. Escalona, R. Carrasco y J. A. Padrón 24
serie. Una serie en a cual las correlaciones entre los parámetros son mínimas se dice que la serie
es ortogonal.
En la actualidad existen diferentes técnicas por las que se puede desarrollar un estudio QSAR en
dependencia del tipo de tratamiento matemático que se le dé a la muestra y se pueden clasificar en:
• QSAR tradicional
• QSAR por redes de neuronas
• QSAR tridimensional
El método tradicional incluye el tratamiento estadístico de los datos por métodos multivariados, que
incluye el análisis de regresión, análisis cluster y análisis por componentes principales, entre otras
técnicas estadísticas. En ellos se valora la actividad biológica como variable dependiente del conjunto
de descriptores moleculares que constituyen las variables independientes.
Como resultado de esto se obtienen modelos que describen la actividad biológica como una
determinada función matemática de los descriptores moleculares, bien sean estos estructurales,
químico-físicos, o ambos.
El método estadístico más familiar es la regresión múltiple, en la que se obtendrá la ecuación de una
recta, un plano, o de un hiperplano, según sea el número de variables independientes incluida en la
expresión. En el caso del análisis cluster, los datos y por lo tanto los compuestos de la muestra, se
agruparán por la semejanza entre ellos según los valores de similitud que se le exijan.
entonces para el especialista consiste en poder asignar a esas componentes una significación químico-
física o estructural. Recordemos que cada una de ellas es el resultado de la combinación líneal de
todos los descriptores, con sus respectivos pesos.
El análisis de regresión múltiple, como se planteó anteriormente, es el más utilizado dentro del
QSAR tradicional. En él, una vez de establecidos los conjuntos de valores de las variables
independientes Xi y la actividad biológica A, se obtiene un modelo en forma de ecuación de una recta
(ecuación 4), la cual describe la dependencia de la actividad (A) en función del conjunto de
descriptores (Xi) así como la magnitud de las contribuciones de cada uno de ellos.
A=f(Xi) + cte.
Ecuación 4.
El modelo así obtenido ha de ser analizado en función de su calidad estadística, para poder evaluar su
capacidad de predicción. Cuanta mayor calidad estadística tenga el modelo, más confiables y exactas
serán las predicciones a realizar.
La calidad estadística de un modelo se evalúa por diferentes estadígrafos. Los más comúnmente
aceptados son el coeficiente de regresión r, el valor F de Fischer y la desviación estándar s. Cuanto
más tienda a la unidad el valor de r, mejor ajuste tendrán los datos al modelo. El valor F correlaciona
la varianza explicada (r2) por el número de grados de libertad, con la varianza no explicada (1- r2)
por el número de variables del modelo. Cuanto más alto es el porcentaje de varianza explicada por el
modelo mayor será el valor de F, mientras que la existencia de variables con baja contribución a la
explicación de la varianza, tenderán a disminuir dicho valor, que tiende a infinito en los mejores
modelos. La desviación estándar s depende de la varianza no explicada y de los grados de libertad del
modelo y es una medida de cuanto se alejan los valores predichos por el modelo de la línea, plano o
hiperplano. La tendencia a cero de este valor pudiera presuponer mayor calidad en la predicción. Sin
embargo, esto puede conducir a modelos sobrepredictivos en los cuales se refleje exactamente el
comportamiento de la muestra pero que no sea posible utilizarlo para la extrapolación de valores en
el caso de la predicción de nuevos compuestos. Un valor de s es válido cuando está en el mismo
orden de magnitud del error experimental de las mediciones de la variable dependiente (la actividad
biológica).
En la ecuación 5 se muestra el modelo de regresión líneal múltiple obtenido por nuestro grupo de
investigación al correlacionar los datos reportados de actividad bactericida de un grupo de alcoholes
alifáticos.
log MIC=31.88(±6.95)**-2.10(±0.17)P1ΩQC***+2.16(±0.62)EHOMO**
N=12 R=0.97 F=74.22 S=0.44
Ecuación 5
Como se puede observar en esta ecuación, la actividad bactericida, expresada como función
logarítmica de la concentración mínima inhibitoria (log MIC), es una función de dos índices que
describen las características estructurales de la muestra de 12 alcoholes (n=12). Según establece esta
ecuación, la actividad aumentaría con un decrecimiento en los valores del índice P1ΩQC, el cual sólo
admite por definición valores positivos, (observe el signo negativo delante del valor de la variable).
J.C. Escalona, R. Carrasco y J. A. Padrón 26
Si analizamos la calidad estadística del modelo, observaremos que el mismo posee un alto coeficiente
de correlación r=0.97, un valor bajo de desviación estándar s=0.44, y un elevado valor de F, por lo
que el modelo debe tener una alta capacidad predictiva.
Consideraciones adicionales para el establecimiento de una ecuación con calidad se tienen en función
del número de variables independientes a incluir en el modelo. La cantidad de variables, debe estar
limitada por el número de compuestos que forman parte de la serie de exploración, de forma tal que,
la relación existente entre ellos sea de una variable por cada 5 o 6 compuestos en la serie de
exploración. La utilización de una cantidad excesiva de variables en una ecuación de regresión puede
conducir a reproducciones de la muestra de entrenamiento eliminándole el valor predictivo al
modelo. Es necesario señalar además que, mientras mayor número de variables se incluyan en la
ecuación, mayor será el número de parámetros a variar en el compuesto a obtener, hecho que se
puede tornar difícil en la práctica sintética.
Otros estadígrafos empleados para determinar la calidad de un modelo son el error cuadrático medio
(ECM), el error absoluto medio (EAM) y el error relativo medio (ERM). El error en la predicción o
residual a quien se hace mención, es la diferencia entre el valor observado o experimental y el valor
predicho (calculado) por el modelo. Su transformación brinda información acerca de la calidad o
ajuste del modelo a nuestros datos y la forma de cálculo es simple.
Error cuadrático medio. Es el promedio del cuadrado de los residuales (diferencia entre el valor
observado y el valor predicho). Con él se resaltan los mayores valores de error y se elimina el efecto
de los valores negativos de los mismos.
Error absoluto medio. Es el promedio del valor absoluto de los residuales. De esta forma se eliminan
los signos negativos y positivos de los errores y permite el análisis integral de los mismos,
independientemente que el error sea por sobrepredicción (valor predicho superior al observado) o por
subpredicción (valor predicho inferior al valor observado).
Error relativo medio. Con él es posible dar información de una manera clara, sobre el
comportamiento de los errores en toda la muestra. Se calcula sacando el promedio al cociente del
valor absoluto de los residuales entre el valor experimental y se da en forma de porciento. Al
dividirse el error absoluto entre el valor observado, se hace posible comparar todos los errores entre
sí según el peso que representan ellos para cada compuesto en cuestión. En este caso, teniendo en
cuenta que se trabaja generalmente en términos de concentración, aquellos compuestos cuya
respuesta biológica se alcanza a valores mayores, su error, como es obvio, podrá tener un valor
mayor también. En estos casos, analizar los resultados en términos porcentuales del error, no
permitirá que se desvirtúe el resultado por el peso que puedan tener en la muestra aquellos
compuestos con valores mayores de respuesta biológica.
En dependencia de la naturaleza de los residuales y de los datos, así como del interés del
investigador, se seleccionará el tipo o los tipos de error a reportar. Cada uno de ellos brinda una
información que puede ser válida en el análisis de los resultados. Además, en un estudio estadístico
determinado, no todos los integrantes de la muestra se ajustan necesariamente al modelo. La razón
puede ser, desde una mala selección de la muestra, hasta un comportamiento diferente en el medio
biológico, por actuar por un mecanismo distinto o por enmascararse la actividad con reacciones
competitivas que sustraen al compuesto del medio. Otra razón puede ser la incapacidad de los
descriptores empleados (variables independientes) de reflejar los aspectos estructurales de interés en
un compuesto específico. Todo esto hace que en un momento determinado, un elemento no se ajuste
a la recta, plano o hiperplano que describe el modelo. Toca entonces definir si ese comportamiento
que lo sitúa como outlier estadístico se debe a algo casual.
Outliers estadísticos son por definición observaciones atípicas no frecuentes. Por la forma en que se
determina la línea de regresión en la Regresión Múltiple, los outliers tienen una profunda influencia
en la pendiente de la línea de regresión y en consecuencia, sobre el valor del coeficiente de
correlación. Incluso un solo outlier es capaz de provocar estos cambios. Ellos representan errores al
azar que debemos ser capaces de controlar, pues pueden ser capaces no sólo de incrementar el valor
de un coeficiente de correlación sino también de disminuirlo. Por eso se recurre a lo que se conoce
como Análisis de Residuales en el que se decide la exclusión o permanencia de del compuesto en
cuestión dentro de la muestra en estudio.
Son diferentes los tipos de residuales que se analizan para definir si un compuesto es o no outlier.
No es correcto al momento de hacer este análisis, emplear un solo criterio de exclusión. Para eso se
emplea más de uno, de los cuales haremos una breve reseña, sin pretender presentarlos todos.
Residual estándar. Es el valor del residual, estandarizado (el valor observado menos el valor
predicho dividido por la raíz cuadrada del residual cuadrático medio). Lo utilizaremos como criterio
de exclusión absoluto si su valor es mayor que 3σ, aunque según la naturaleza del problema, puede
oscilar entre ±2σ y ±5σ.
Residuales borrados. Es el valor estandarizado para cada caso, si este ha sido excluido del análisis de
regresión. Si el residual borrado difiere mucho del residual estandarizado respectivo, entonces ese
caso es posiblemente un outlier porque su exclusión cambia la ecuación de regresión.
Distancia de Cook. Indica la diferencia entre el valor del coeficiente de la variable independiente
calculado y el valor que se debía esperar después que el caso se excluye Todas las distancias deben
ser aproximadamente de la misma magnitud. Si no es así, puede decirse que el caso respectivo varió
la estimación de los coeficientes de regresión.
En última instancia, cuando un compuesto de la muestra resulta outlier en tres o más criterios,
entonces se le puede considerar un verdadero outlier estadístico y se le excluye de la muestra, si no
existen consideraciones cualitativas de compromiso que fuercen su permanencia.
En estadística, los gráficos resultan de mucha utilidad para visualizar la información contenida en los
modelos. Esta forma de análisis se aplica lo mismo al modelo en sí como a los residuales.
Este tipo de gráficos ilustra el comportamiento de los valores experimentales respecto a los predichos
por el modelo. El comportamiento ideal es cuando existe coincidencia entre ambos valores y por lo
tanto se superponen dando una línea recta. La figura 5 es el resultado de plotear el valor predicho de
Area de Superficie Accesible a Disolvente contra los valores calculados por el método DelPhi en una
muestra heterogénea de 296 compuestos9, descrito por la ecuación:
Ecuación 6
9
Padrón, JA,. Carrasco, R., Marrero, J., Pardillo, E and Estrada, E. Use of Topological and Topographical Indexes in the
Prediction of the Solvent Accessible Surface Area. Quant Struct Act Relat.Submited
Con este tipo de gráfico es posible ver de manera clara la estabilidad del modelo cuando se elimina
por pasos cada uno de los casos de la muestra. Según esta forma de presentación, aquellos residuales
borrados que no se ajusten a la recta, pueden ser analizados como potenciales outliers. Su
eliminación y posterior análisis de la ecuación resultante, así como de los gráficos correspondientes,
decidirá si realmente el compuesto constituye o no un outlier. En la figura 6 se muestra el gráfico de
Residuales vs Residuales Borrados correspondientes a la ecuación anterior.
Ecuación 7.
18
16
14
12
No of obs
10
2
Expected
0
-2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5 3 3.5 4 Normal
De la gráfica anterior puede observarse que los residuales estándar no sobrepasan el valor de ±3σ y
que presentan una distribución casi normal, compatible con la heterogeneidad de la muestra.
10
Carrasco, R., Capote, R., Padrón, JA., and Estrada, E. Modeling Physico-chemical Properties of Organic Compounds
from Topological/Topographic Molecular Descriptors. J. Chem. Inf. and Comput. Sci., submited.
El análisis de datos en química no es algo nuevo. Durante años se ha realizado por métodos
estadísticos y técnicas de reconocimiento de patrones. Pero también ha estado claro que el cerebro
del hombre recibe y analiza información de forma sui generis porque la adquisición de conocimientos
por el cerebro humano no se realiza por métodos estadísticos.
Las limitaciones propias de los métodos mencionados condujeron a los sistemas expertos. Un
sistema experto tiene su punto de partida en una gran cantidad de información (base de datos), un
número considerable de reglas de conocimientos (base de conocimientos) y un mecanismo de
inferencia que une ambas bases y permite tomar decisiones. En el acápite sobre sistemas expertos, se
presentan ejemplos de estos sistemas basados en computadoras que permiten simular el razonamiento
del hombre en el dominio del saber específico. Sin embargo, los sistemas expertos distan mucho de
ser perfectos. Estos métodos requieren, para construir su base de conocimientos, muchas disciplinas
científicas. Pero evidentemente, esta no es la vía por la cual el cerebro adquiere el conocimiento.
Una RNA la podemos considerar una caja negra que acepta un conjunto de datos, los procesa y
brinda una o más salidas. La función de procesar es a lo que comunmente se le llama aprendizaje de
J.C. Escalona, R. Carrasco y J. A. Padrón 32
la red. Muchos usuarios de las RNA’s desconocen lo que ocurre dentro de esa caja negra sin
embargo, continúan aplicándola a su problema.
Las RNA’s han sido aplicadas en química tanto para estudios de relación estructura-propiedad como
estructura-actividad biológica, de forma cualitativa y cuantitativa. En dependencia del tipo de trabajo
a realizar en un campo específico debe seleccionarse el tipo de red a emplear. En los estudios QSAR
y QSPR es de uso común los perceptrones multicapa para procesamiento cualitativo y cuantitativo de
las muestras. Las redes de Kohonen y Hopfinger se emplean preferentemente en problemas de
selección de variables para el establecimiento de los modelos y para definir muestras de
entrenamiento y prueba. se utiliza frecuentemente para establecer criterios de selección de variables
La selección del tipo de red y la definición de su topología se establece dependiendo del tipo de
trabajo a realizar en el campo específico.
cual quiere decir, que necesita conocer las respuestas a las entradas, por adelantado, o sea, la
actividad biológica o propiedad. De manera común, este tipo de red emplea las unidades
procesadoras en tres tipos de capas: de entrada, oculta y de salida. Cada unidad en una capa está
conectada a cada una de las unidades en las capas adyacentes con un peso o fuerza de conexión ωi. El
ajuste de estos pesos durante el proceso de optimización es lo que se realiza durante el entrenamiento
de la red. El valor de cada unidad en la capa de salida se compara con el valor diana que, en los
estudios de relación estructura-actividad o estructura-propiedad son los valores experimentales de
dicha propiedad.
Mientras que en la regresión múltiple tenemos una tabla de n compuestos con y propiedades químico-
físicas y la actividad biológica asociada a cada uno de los n compuestos, en las RN tendremos y
unidades en la capa de entrada y generalmente una unidad en la capa de salida (actividad o
propiedad) con usualmente una capa de unidades ocultas entre las capas de entrada y salida. Las
entradas a la red pueden ser cada uno de los valores y a cada una de las y neuronas para cada
compuesto. El valor diana para cada uno de los n compuestos será la actividad biológica o la
propiedad químico-física, según sea el caso.
A las redes a las que se les suministran los datos en la capa de entrada y producen una señal hacia la
capa de salida, se les llama feed-forward o de alimentación hacia delante. El entrenamiento de la red
implica cambios iterativos de los pesos en las conexiones hasta que la señal de la neurona o neuronas
de la capa de salida se ajusta, dentro de ciertos valores límites de error, con el valor diana en un
proceso de minimización del error. Hay diversas formas de alterar los pesos de la red pero uno de los
más empleados es la regla delta.
La regla delta, dicha de forma cualitativa, está descrita por una expresión según la cual, los cambios
en el peso de una conexión dada entre dos neuronas es función de dos parámetros denominados β o
velocidad de aprendizaje para ajustar la velocidad a la cual la RN asimila la información, aprende,
durante el entrenamiento y un término α (también se encuentra μ como notación) llamado
momentum, que impide que la red quede atrapada en mínimos locales. Al inicio del entrenamiento, a
los pesos de las conexiones se les asignan valores al azar. Los datos para todos los compuestos se
pasan por la red (se transforman por la función de transferencia) y la respuesta de salida se compara
con el valor experimental, en nuestro caso la actividad, y se determina el error. Los pesos se ajustan
entonces para que los datos pasen por la red por segunda vez con el fin de reducir el error anterior.
Como la regla delta requiere el cálculo de un error en la neurona de salida para calcular los errores
en las restantes neuronas, es que se les conoce como propagación del error hacia detrás o
backpropagation errors, de ahí su nombre. Este proceso se repite iterativamente hasta minimizar el
error por debajo de un valor fijado. Por último, se puede calcular el coeficiente de correlación entre el
valor observado de la actividad biológica y el predicho por la red. Las redes de este tipo se emplean
cuando no se conoce la forma analítica del modelo (lineal, cuadrático, etc.) o cuando se desea extraer
información no-lineal compleja del conjunto de datos.
Al igual que otros modelos matemáticos de análisis de datos, la calidad de los resultados dependerá
en buena medida de la calidad de los mismos, es decir, de la naturaleza de la muestra, así como de los
descriptores empleados para el establecimiento del modelo. La selección de una muestra de trabajo
J.C. Escalona, R. Carrasco y J. A. Padrón 34
puede ser en un momento determinado, un aspecto limitante; bien porque las condiciones
experimentales no permiten llenar vacíos o la bibliografía no suministra la información necesaria. Es
un lugar común el no disponer de los datos necesarios y suficientes, aunque la cantidad de ellos sea
extensa. Esta situación obliga a trazar una estrategia en los estudios QSAR para la selección de las
muestras de entrenamiento y prueba. La aplicación de la misma en el análisis de regresión, permite
validar los resultados del modelo alcanzado en un conjunto de compuestos diferentes al utilizado para
desarrollar el modelo y así valorar su capacidad descriptiva. Por su parte, en el trabajo de RN se
precisa generalmente un tercer conjunto al que se llama de validación, pues en RN es frecuente que
los programas presenten la opción de salvar la mejor red según los resultados alcanzados en la
muestra de entrenamiento o en la de prueba. En estos casos, este procedimiento le restaría algo del
valor de generalización al resultado del aprendizaje, pues la red ya habría visto en algún momento a
la muestra de prueba. Por eso, ese tercer grupo de compuestos constituye el último criterio para
validar los resultados.
Uno de los primeros trabajos aplicados a estudios QSAR fue un análisis discriminante de un conjunto
de derivados anticancerígenos de mitomicina. Se empleó un conjunto de seis variables, dos de ellas
indicadoras y cuatro de sustituyente, se dividió la actividad en cinco categorías y se fijó una capa
oculta de 12 neuronas (arquitectura 6 x 12 x 5) . La red entrenada fue capaz de clasificar
correctamente los 16 compuestos de la muestra de entrenamiento. Sin embargo, el elevado número de
conexiones (132) puede dar lugar a correlaciones casuales o a un ajuste excesivo, lo que en
terminología de RN se conoce como memorizar; es decir, la red ha retratado la muestra y establecido
un patrón único lo cual le impide hacer la generalización de su aprendizaje. Esto hace que si se le
presenta un grupo de compuestos no visto por ella anteriormente, no los reconocerá pues su patrón
para identificar nuevas entidades se especializó en el conjunto de entrenamiento que se le suministró
previamente para el aprendizaje. ¿Qué quiere decir este comportamiento? Que se ha sobreajustado
una superficie a la muestra de entrenamiento brindando un aparentemente buen comportamiento
pero, no permite la predicción. Este problema fue identificado por Andrea (1990) el cual propuso un
parámetro ρ, que puede ser empleado para caracterizar la relación entre los puntos de datos y el
número de conexiones según la expresión:
N o de puntos de datos
ρ=
N o de conexiones
En ese trabajo se recomienda emplear valores de 1.8<ρ<2.2 para evitar por una parte que la red
memorice, y por la otra, para evitar pérdida de información por insuficiente número de conexiones.
En el ejemplo mencionado, ρ=0.5 y por lo tanto, es posible que exista un sobreajuste. Sin embargo,
según J. Zupan y J. Gasteiger11 la búsqueda de una arquitectura apropiada para una red resulta en la
práctica, un procedimiento de prueba y error.
11
Zupan, J. and Gasteiger, J. Neural Networks for Chemists. An Introduction, cap. 8; 1994.
Una capacidad de análisis de la información que es exclusiva de las redes de neuronas, es la que nos
permite evaluar simultáneamente en un mismo modelo, más de una actividad. La incorporación de
neuronas adicionales en la capa de salida es la que facilita esta opción. En un trabajo actualmente en
curso, nos encontramos evaluando un sistema de redes en las que se evalúa simultáneamente la
actividad de una familia de 65 cefalosporinas de diferentes generaciones frente a dos bacterias Gram
(+), S. aureus y E. cloacae. Para ese estudio la muestra se dividió también en tres: entrenamiento
(48), prueba (12) y validación (5). Se lograron coeficientes de correlación de 0.90 y 0.86, así como
errores relativos promedios de 5.3 y 6.7% para cada bacteria respectivamente. Esta tipo de análisis es
imposible de realizar con otros métodos multivariados.
El QSAR tridimensional es una técnica moderna que combina los aspectos relacionados en el estudio
QSAR clásico con los de los estudios SAR o de modelado molecular. En los estudios SAR de
análogos, la elección se limita a si el compuesto es activo o inactivo. En la práctica, sin embargo, los
resultados se representan generalmente de forma numérica que refleja las diferencias cuantitativas en
la unión de uno u otro ligando. Por otro lado, el QSAR clásico si tiene en cuenta estos valores
numéricos de las afinidades, pero para establecer un modelo por esta técnica, no es posible considerar
compuestos estructuralmente diferentes, ya que en este tipo de análisis, es indispensable el empleo de
una serie estructuralmente análoga. La necesidad de lograr una interfase entre ambos tipos de trabajos
necesitó el desarrollo de un análisis conceptualmente nuevo.
12
Cramer, RD., Patterson, DE., Brunce, JD. J. Am. Chem. Soc. Vol 110, 1988.
J.C. Escalona, R. Carrasco y J. A. Padrón 36
Para hacer esto posible, se precisa del cálculo de los campos de fuerzas por mecánica molecular, que
sólo consideran las fuerzas estéricas y electrostáticas. Para lograrlo, se superponen todas las
moléculas en las conformaciones presumiblemente activas y se calculan las energías de interacción
estéricas (van der Waals) y las electrostáticas (Coulomb) entre cada una de las moléculas de interés.
Posteriormente se recurre a la técnica estadística de los mínimos cuadrados parciales y se extraen las
variables que describen la varianza del conjunto de datos, los cuales se someten después, a una
validación cruzada. El análisis de regresión lineal múltiple no es aplicable en esta técnica, pues, la
cantidad de variables generada en estos estudios es muy elevado.
1. Postular la conformación activa para el metabolito endógeno o para el fármaco más activo.
2. Alinear el resto de las moléculas y establecer a su alrededor una malla tridimensional como una
caja de puntos en el espacio potencial del receptor.
3. Calcular el campo que cada molécula ejercería sobre un átomo sonda situado en cada punto de la
malla.
4. Determinar una expresión lineal mediante la técnica de mínimos cuadrados parciales que podría
consistir en un conjunto mínimo de puntos de la malla necesarios para distinguir los compuestos
sometidos a examen de acuerdo a las actividades determinadas experimentalmente.
5. Realizar la validación cruzada del modelo (crossvalidation)
6. Ajustar la alineación de los compuestos peor predichos y repetir los pasos anteriores hasta
encontrar la mayor alineación posible.
Estos resultados del QSAR-3D producido por miles de términos (en el QSAR tradicional el número
de términos es más reducido en función del tamaño de la muestra), se pueden visualizar gráficamente
en formas de mapas de contorno, pudiendo colorearse de diversos colores para resaltar la dirección y
magnitud de la interacción. De tal manera, las regiones coloreadas aparecerán en aquellas regiones en
donde las diferencias electrónicas y estéricas produzcan una mayor variación de la actividad.
Independientemente del tipo de análisis QSAR empleado, el resultado final va a ser un modelo
matemático. Para estar completamente seguros de que el modelo obtenido no resulta de un
ordenamiento al azar de los datos, es común, según las normas internacionales, verificar la calidad
del mismo.
El método de regresión lineal múltiple proporciona los valores para los coeficientes que hacen que la
función matemática propuesta explique al máximo, cómo varían las actividades. Independientemente
de esto, siempre quedará una varianza no explicada por el modelo -los residuales-, que corresponden
a los errores en las medidas de los datos de actividad y a posibles efectos no incluidos en él -
parámetros no considerados-. Mientras mayor sea la diferencia entre la varianza explicada sobre la no
explicada mayor será la utilidad del modelo. Esto puede contrastarse con un análisis de varianza y un
test de F. Cuando el modelo no es satisfactorio se obtiene la no significación en el test.
Otro problema es que el modelo no sea predictivo, es decir, que la función propuesta no se cumpla
para productos no incluidos en la serie de exploración. Este problema suele solucionarse realizando
una validación cruzada (crossvalidation) al modelo, con el procedimiento conocido como leave-one-
out. Este procedimiento consiste en un análisis de regresión lineal que se repite tantas veces como
número de compuestos tenga la muestra, eliminando en cada uno de los análisis a un compuesto. De
tal manera, en una muestra donde el número de estructuras evaluadas es 24 (n=24), se realizarán 24
análisis de regresión con 23 compuestos, generando al final los valores promedios de los coeficientes
de correlación (r2 ó rcross) y de las desviaciones estándar obtenidas (Spress). De esta forma se puede
conocer si el modelo mantiene su calidad estadística independientemente de la presencia o ausencia
de algunas de las moléculas estudiadas.
Otra forma de medir o evaluar la calidad de la ecuación obtenida consiste en determinar la robustez
(q2) del mismo, y el mismo se calcula a través de la ecuación siguiente:
q2 = (SD-PRESS)/SD
ecuación 8
donde SD es la sumatoria al cuadrado de las desviaciones estándares de los residuales y PRESS es la
sumatoria al cuadrado de los residuales. Este valor de q2 derivado de la validación cruzada no es más
que la habilidad del modelo para realizar la predicción. En un modelo donde se obtenga un valor de
q2> 0.5 puede ser considerado como un modelo predictivo.
Para que el estudio de relaciones estructura-actividad se concluya con éxito debe obtenerse un
modelo significativo y predictivo. Aún así, la validez del modelo estará siempre limitada al rango de
parámetros explorados por la serie de exploración, fuera del cual nunca debe considerarse válido. De
hecho, esta es la principal limitación a la hora de buscar el óptimo de actividad predicho por un
modelo.
Cuando el modelo contiene sólo términos lineales, basta con buscar sustituciones que maximicen,
según los valores que toma el índice, los términos con coeficientes positivos y minimicen los
términos con coeficientes negativos. Esta operación debe ser resuelta con mucho cuidado, pues los
procesos de maximización o minimización deben realizarse sobre la base de los valores que toma el
índice, pues existen índices que pueden tomar valores tanto positivos como negativos (las cargas,
energías, lipofilidad, etc.); mientras que otros sólo poseen valores solamente positivos (los índices
Ω, χ etc.) o negativos (EHOMO y ELUMO).
13
Tong, W. Et al. Environ Health Perspect. Vol 105, No. 10, 1997.
J.C. Escalona, R. Carrasco y J. A. Padrón 38
Debe tenerse en cuenta, que si se rebasan los valores máximos y mínimos de la serie de exploración,
los resultados a obtener en los nuevos compuestos no tienen porqué responder al modelo, pues esos
valores no fueron explorados y por tanto no incluidos en el mismo. Un ejemplo de esto puede ser un
modelo en el cual sea necesario el incremento del índice Ω. Este índice, que sólo toma valores
positivos, se incrementa cuando se aumentan los órdenes de enlaces y las ramificaciones en la
estructura química. Esto hace pensar que, en las moléculas a diseñar, la inclusión de un mayor
número de dobles o triples enlaces, y el aumento de la ramificación por utilización de las técnicas
modulativas de la variación molecular (ver capítulo I), generaría compuestos más activos; sin
embargo este aumento de dobles o triples enlaces puede generar en la molécula una susceptibilidad al
metabolismo y metabolizarse rápidamente sin que esta llegue al sitio de interacción con el blanco
terapéutico. El incremento de la ramificación, por su parte, puede generar un volumen superior al
permitido por el receptor y por tanto bloquear por impedimento estérico la interacción del ligando
con el mismo. Estas consideraciones no pudieron ser recogidas evidentemente por el modelo, pues en
él este extremo de valores no fue considerado.
Bajo este término se agrupan una serie de parámetros que a través de valores numéricos representan
una información estructural, electrónica, estérica, así como una determinada propiedad químico-física
de la molécula en estudio. Desde este punto de vista estos parámetros se clasifican en:
• Indices basados en propiedades químico-físicas: Son aquellos, como lo dice su nombre, que
derivan de la determinación experimental de una determinada propiedad químico-física de la
molécula.
• Indices mecánico-cuánticos: Son aquellos que se determinan por cálculos mecánico-cuánticos.
• Indices topológicos y topográficos: Son aquellos que se determinan a partir del grafo químico, o
sea de la estructura química.
Las propiedades químico-físicas en una molécula pueden reflejar la interacción de dicha molécula
con el receptor. Entre los parámetros químico-físicos más empleados en el QSAR se encuentran:
Todos los parámetros anteriormente reflejados representan propiedades globales de la molécula. Este
tipo de parámetro tiene el inconveniente de que es necesario medir la propiedad, y muchas veces esto
presupone un trabajo laborioso; aunque muchos de estos índices pueden ser determinados por
métodos computacionales con aproximaciones bastantes exactas a la realidad experimental.
De este modo pueden caracterizarse propiedades locales de la molécula, pero también propiedades
globales, tomando en consideración el carácter aditivo de cada uno de los valores fragmentales que
constituyen la molécula final. De tal modo que se hace innecesaria la síntesis previa de los productos
a caracterizar. Entre estas constantes fragmentarias las más utilizadas son:
Para un estudio QSAR lo importante a obtener de estos cálculos químico-cuánticos son índices que
permitan describir las características electrónicas y energéticas de las moléculas. Debido a la amplia
información que pueden contener estos descriptores teóricos, su utilización en estudios QSAR puede
tener dos grandes ventajas:
1. Los compuestos y sus varios fragmentos y sustituyentes pueden ser directamente sobre la base
exclusiva de su estructura molecular.
2. El mecanismo de acción propuesto para los fármacos a estudiar puede estar directamente
relacionado con la reactividad química calculada.
Definición Nombre
Qa Carga neta sobre el átomo A
Qmin, Qmax Cargas netas más negativa y positiva de la molécula
qE,A, qN,A Cargas electrónicas nucleofílicas y electrofílicas, calculadas a
partir de los orbitales ocupados y desocupados respectivamente.
qA,σ, qA,π Densidades electrónicas σ y π del átomo A
εHOMO εLUMO Energías HOMO y LUMO. Significan las energías del último
orbital ocupado y la del primer orbital sin ocupar respectivamente.
SE,A, SN,A Superdeslocalizabilidad electrofílica y nucleofílica.
α Polarizabilidad Molecular
μ Momento dipolo molecular
ET Energía total de la molécula
ΔH0f Calor de formación
Cargas Atómicas:
De acuerdo con la teoría química clásica, todas las interacciones químicas son por naturaleza o
electrostáticas (polares) u orbitalarias (covalentes). Es una evidencia práctica, que las densidades
electrónicas locales o cargas, son importantes en muchas reacciones químicas y en muchas
propiedades químico-físicas de las moléculas. Así, los descriptores basados en las cargas han sido
extensamente empleados como índices de reactividad química y como medidores de las interacciones
intermoleculares débiles tal y como ocurre en las interacciones iónicas entre el fármaco y el receptor.
Las cargas parciales sobre los átomos han sido utilizadas como índices de reactividad química
estacionarios. Las densidades electrónicas σ y π por su parte, caracterizan la posible orientación de
las interacciones químicas, por lo que son consideradas índices direccionales de reactividad. Por el
contrario, las densidades electrónicas y las cargas netas sobre los átomos son consideradas índices de
reactividad no direccionales.
Energías de los orbitales moleculares:
Las energías HOMO y LUMO son los descriptores químico-cuánticos más populares. Se ha
demostrado que estos orbitales juegan un papel muy importante en muchas de las reacciones
químicas y en la formación de los complejos de transferencia de cargas. De acuerdo con la teoría de
los orbitales moleculares fronteras (FMO) de la reactividad química, la formación de un estado de
transición se debe a la interacción entre los orbitales fronteras HOMO y LUMO de las especies
químicas reaccionantes.
Superdeslocalizabilidades.
Este es un índice de reactividad de los orbitales ocupados y no ocupados y está relacionada con la
contribución hecha por el átomo, a la estabilización en la energía de formación de un complejo de
transferencia de carga con una segunda molécula, o la capacidad del reaccionante de establecer
enlaces a través de transferencia de cargas. La distinción hecha entre nucleofílica y electrofílica están
relacionadas con la naturaleza de la superdeslocalizabilidad, si esta es aceptora o donante
respectivamente. Las superdeslocalizabilidades son conocidas también como índices de reactividad
dinámica. A diferencia de los índices estáticos (cargas), que describen moléculas aisladas en su
estado base, los índices dinámicos de reactividad se refieren a los estados transicionales en las
reacciones.
Polarizabilidad Molecular:
Se refiere a la polarización que puede sufrir una molécula por un campo eléctrico externo, cuya
propiedad más significativa es su relación con el tamaño molecular o el volumen molar. Se ha
demostrado que la polarizabilidad guarda relación con el coeficiente de partición; de ahí su
aplicabilidad en estudios de relación estructura-actividad.
Momento dipolo:
La polaridad de una molécula guarda una estrecha relación con varias propiedades físico-químicas.
El momento dipolo de la molécula es un reflejo de la polaridad global de la molécula.
Energías:
Las energías totales y los calores de formación de las moléculas son un reflejo de la estabilidad de las
mismas, por lo que el empleo de estos índices puede conducir a la explicación del fenómeno
estudiado.
La topología es aquella parte del álgebra que estudia las posiciones e interconexiones entre los
elementos de un conjunto. Esta rama de la ciencia, aplicada a la estructura química ha dado origen a
una disciplina llamada “Topología Molecular” que analiza precisamente las posiciones y las
interconexiones entre los átomos de una molécula dada. De esta forma se lograría caracterizar
estructuralmente los compuestos.
Para definir dichos índices se representan por puntos los átomos de la molécula (excluyendo a los de
hidrógeno) y por rayas o segmentos los enlaces. De tal manera se obtiene el grafo de la molécula o
grafo químico como comúnmente se conoce. Con posterioridad se construye la matriz topológica
cuyos elementos toman el valor de uno o cero en dependencia de si el átomo “i” está enlazado o no al
átomo “j”. Así se genera una matriz cuadrada de “n” filas por “n” columnas, siendo “n” el número de
vértices del grafo o lo que es lo mismo el número de átomos. El resultado del cálculo genera un valor
numérico que representa o describe la estructura química de la molécula, por lo que este tipo de
descriptores tienen una gran utilidad en los estudios QSAR.
J.C. Escalona, R. Carrasco y J. A. Padrón 42
De esta forma se pueden generar matrices de adyacencia y matrices de distancias entre vértices. Las
matrices de adyacencia describen la unión o no entre átomos y la de distancias los números de
átomos existentes entre un átomo “X” y otro no enlazado a él. Sirva como ejemplo ilustrativo de la
construcción de estas matrices la molécula de isopentano.
V2
V5
V3
e1 e2 e3
V1 e4
V4
⎡0 1 0 0 0⎤ ⎡0 1 2 3 3⎤
⎢1 ⎢1 0 1 2 2⎥
0 1 0 0⎥ ⎢ ⎥
⎢ ⎥
Α = ⎢0 1 0 1 1⎥ D = ⎢2 1 0 1 1⎥
⎢ ⎥ ⎢ ⎥
⎢0 0 1 0 0⎥ ⎢3 2 1 0 2⎥
⎢⎣0 0 1 0 0⎥⎦ ⎢⎣ 3 2 1 2 0⎥⎦
Matriz de adyacencia Matriz de distancia
entre vértices Entre vértices
Observe que para la matriz de adyacencia, al átomo o vértice 1 (V1) le corresponden valores en la
matriz, de 0 para su relación con los átomos 1, 3, 4 y 5 y valor de 1 con el vértice 2 (V2), pues es
solamente con él, con quién se encuentra enlazado. Así mismo para V3 le corresponden valores en la
matriz de 0 para los vértices 1 y 3 y valores de 1 para los átomos 2, 4, 5. De esta forma se obtiene un
valor numérico que representa o describe la estructura molecular.
El grafo molecular puede ser subdividido en subgrafos en dependencia del número de ejes
interconectados al vértice. Estos subgrafos se clasifican según su orden (m) y su tipo (t).
El orden de un grafo no es más que el número de ejes o enlaces que contiene el vértice, considerando
como simples a los enlaces múltiples. Los tipos de los subgrafos por otro lado se clasifican en tres
tipos:
♦ Tipo Camino (p), que son aquellos subgrafos que la valencia (número de enlaces) de sus vértices
son menores o iguales que dos. Téngase en cuenta que los átomos de hidrógeno no se consideran
en el grafo molecular.
♦ Tipo Cluster (c), constituido por aquellos subgrafos que tienen al menos algún vértice con
valencia 3, 4 o mayor, pero ninguno con valencia de dos.
♦ Tipo Camino-cluster (pc) Son los subgrafos que incluyen vértices con valencias de dos, además
de algunos con valencia de 3, 4 o mayor.
Estos índices de conectividad mχt corresponden en cada caso a la suma de todos los subgrafos de tipo
t y de orden m, y están relacionados con la ecuación 9:
n
mχ =
m
∑
t j =1
m
Sj
Ecuación 9
Los términos mSj se definen como el inverso de la raíz cuadrada del producto de las valencias de los
vértices integrantes del subgrafo, Donde j define un subgrafo en particular (ver figura 12).
Camino
Cluster
Camino-
Cluster
La definición de algunos de los índices obtenidos por esta metodología aparecen recogidos en la tabla
siguiente:
ÍNDICE DEFINICIÓN
χ = ∑ [δ (v )δ (v )]
m
−1/ 2
[ ]
m
1χ =
∑ δ (vi )δ (v j )Kδ (v l +1 )
−1/ 2
r =1
Conectividad molecular extendido
donde δ(vi), δ(vj),… δ(vl+1) son los grados de
los vértices en la cadena considerada
[ ]
m
1χ v =
∑ δ v (vi )δ v (v j )
−1/ 2
Conectividad de valencia i≠ j
l =1
Para evitar el uso indiscriminado de este tipo de índice, uno de los más prestigiosos investigadores en
esta área de la química ha propuesto que para la generación de nuevos índices de esta naturaleza,
estos deben cumplir los siguientes atributos:
No existe ningún criterio simple ni único, para seleccionar qué parámetros deben utilizarse en un
estudio de relación estructura-actividad. Ante un problema nuevo se debe comenzar a buscar en la
literatura trabajos previos realizados sobre el mismo tipo de productos, y de no encontrarse, sobre
productos parecidos o con la misma actividad. En general, en esta primera etapa, cualquier tipo de
información puede ser orientadora respecto a las características físico-químicas que pudieran
intervenir en la actividad, y por tanto cuáles son los parámetros más adecuados para describirlas.
Teniendo en cuenta los avances que promete tener la farmacología molecular, es de suponer que el
futuro del diseño de fármacos no esté destinado como hasta el presente, a la obtención de sustancias
que puedan ser reconocidas por los receptores o que modulen la síntesis, metabolismo o recaptación
de los neurotransmisores, sino que estará orientado a obtener sustancias que actúen sobre los sistemas
enzimáticos activadores de la cascada de eventos que lleva consigo una respuesta farmacológica.
Entiéndase por sistemas enzimáticos activadores de la cascada de eventos a las proteinas G o
cualquiera de sus subunidades, las enzimas formadoras de mensajeros secundarios y las proteina-
quinasas entre otras.
El hecho de que no siempre es mejor actuar sobre los receptores lo sugiere el hecho de que frente a
una exposición continua del agonista o del antagonista, se producen fenómenos de desensibilización
o supersensibilidad, que pueden ser responsables de nuevas alteraciones fisiológicas. El influir
mediante estos fármacos sobre estos mecanismos intermediarios entre el receptor y el efector,
pueden dar origen a sustancias muy selectivas que operen sobre las células que padezcan la
disfunción.