Documentos de Académico
Documentos de Profesional
Documentos de Cultura
PROTEÍNAS”
ÍNDICE
1. INTRODUCCIÓN.
2. BIOINFORMÁTICA.
3. PROTOCOLO DE PREDICCIÓN DE PROTEÍNAS.
4. ETAPAS DE MODELADO POR HOMOLOGÍA.
5. MÉTODOS DE PREDICCIÓN DE ESTRUCTURAS TERCIARIAS.
6. EJEMPLOS DE FABRICACIÓN DE ESTRUCTURAS SECUNDARIAS: DISEÑO DE
PROTEÍNAS.
1
1. INTRODUCCIÓN
➔ Durante millones de años se han ido produciendo cambios en esta estructura por la
evolución, que es un fenómeno de aleatoriedad y selectividad que se desarrolla de modo
continuo en el tiempo. Hay prtoeínas que son fácilmente extraíbles, mientras que otras son
prácticamente imposibles. En el caso de estas últimas, se estudian mediante métodos de
predicción de estructuras de proteínas.
Por ejemplo, el ADN mitocondrial tiene una alta tasa de mutación, por lo que hoy en
día se aprovecha dicha variabilidad para mapear en el tiempo las mutaciones de
diversos organismos.
➔ Por lo que, los individuos que portan proteínas mejoradas tendrán mayor éxito evolutivo
(su genoma podrá prevalecer). A lo largo de la evolución, si se mantiene la presión selectiva,
las mutaciones favorables harán que los individuos mejorados desplacen a los anteriores. La
gran mayoría de las mutaciones son deletéreas, cambiando regiones intergénicas que
sustituyen un aminoácido por otro similar y que no tienen efectos considerables sobre el
organismo (por ejemplo, un aspártico por un glutámico → ambos cargados) y otras
mutaciones son letales o generan malformaciones.
➔ Desde que el hombre existe, ha utilizado técnicas de mejora de ganado y cultivos, de modo
que de forma voluntaria y artificial se seleccionaba al individuo que presentaba mejores
características y se generaban individuos de su descendencia (a través de cruces) que
2
portaran esas características. Todo esto ha cambiado gracias a las mejoras tecnológicas,
conocimiento del ADN y del genoma...
2. BIOINFORMÁTICA
○ Obtener datos sobre el genoma de cualquier individuo (el análisis del genoma
supone la recogida de una enorme cantidad de datos).
3
POSICIÓN RELATIVA DE LOS ÁTOMOS QUE CONFORMAN UNA PROTEÍNA
➢ A pesar de la mejora de los métodos, existen proteínas para las cuales ha sido imposible
obtener datos experimentales. La obtención de datos de proteínas de membrana, en
comparación con el resto de proteínas, presenta sin embargo una gran desventaja debido a
que son muy difíciles de extraer y, por tanto, muy difícilmente analizables, ya que el medio
en el que se encuentran hace muy difícil su mantenimiento, sobre todo en estado activo, y
por ello el estudio de estas proteínas resulta extremadamente complicado.
➢ Si asumimos que dos proteínas similares en secuencias son similares en estructura y función,
diremos entonces que el método más utilizado es modelado por homologías de secuencia.
4
a. Método de modelado por homología de secuencias (IMPORTANTE).
- El primer paso será averiguar qué estructura terciaria adquieren las estructuras secundarias
de las proteínas. Si asumimos que proteínas similares en secuencia también lo son en
estructura y función, podemos utilizar el método de modelado por homología de
secuencias.
- Esta técnica predice, pues, las estructuras de las proteínas mediante la comparación con
estructuras de proteínas homólogas conocidas. Es decir, se basa en el principio de que si dos
proteínas tienen un alto grado de similitud es muy probable que tengan estructuras
tridimensionales similares. Esta homología se va a demostrar en una alta, baja o media
similitud entre la secuencia de aminoácidos de las diferentes proteínas. En este caso
también existen excepciones, pues hay proteínas que son muy parecidas en secuencia , pero
que no se asemejan ni en estructura ni en función.
- Un 100% de identidad en una única región de aminoácidos podría determinar que dos
proteínas homólogas realizan una función marcada por dicha secuencia de aminoácidos,
mientras que el resto de la secuencia de la proteína podría haber derivado evolutivamente
5
por diferentes motivos para adaptarse al entorno en el que se desenvuelve el organismo. Si
la función de las dos proteínas es la misma, estas sufrirán las mismas reacciones
bioquímicas, por lo que, si no se trataran de los mismos aminoácidos, estos tendrán que
mantener el carácter obligatoriamente.
- Al comparar las secuencias de la proteína es importante tener una visión del conjunto total,
si posee estas secuencias consenso es muy probable que pertenezcan a una misma familia
proteica.
- Proteínas que presentan un 50% de identidad poseen una desviación típica en las
posiciones de sus Cα de alrededor de 1Å.
- Generalmente, cuando se obtienen datos de homología entre dos proteínas (salvo que estén
muy relacionadas evolutivamente hablando y en función), las regiones más homólogas o
aquellas en las que más se parecen son las que van a conformar el núcleo hidrofóbico de
esas proteínas. Esta es la parte que menos suele cambiar a lo largo de la evolución de una
proteína, a no ser que se produzca una duplicación de un determinado gen y uno
permanezca con la misma función mientras que el otro vaya derivado y acumulado
mutaciones hasta el punto de convertirse en una proteína diferente.
Por lo tanto, la estructura tridimensional del interior de las proteínas no suele variar por
muy lejanas que estén evolutivamente, lo cual nos ayuda a saber dónde enfocar la
estructura supuesta de una proteína nueva.
- Estas estructuras secundarias que forman la estructura tridimensional del centro hidrofóbico
de las proteínas están conectadas a través de las regiones Loops o regiones conectoras.
6
- Predecir la estructura de las regiones loops, las conexiones (loop) de las distintas estructuras
secundarias, así como la colocación de las cadenas laterales (debido a sus posibilidades de
giro) de los aminoácidos, supone un problema a la hora de predecir la forma tridimensional
de una proteína. Pues dependiendo de en qué posición estemos tendremos más o menos
dificultad de colocar las cadenas laterales (ya que poseen una alta capacidad de rotación).
- Las regiones loop serán las que se enfrenten al solvente y generalmente serán abundantes
en aminoácidos polares hidrofílicos, porque los grupos aminos y carbonilos no forman
puentes de H entre sí sino que se unen a las moléculas de agua.
- Hasta ahora, los únicos átomos que se tienen en cuenta para formar esta estructura son los
pertenecientes a los Cα de esta cadena de aminoácidos. Lo último en colocarse son siempre
las R pues, gracias al enlace peptídico, tienen posibilidad de giro, lo que hace que las
probabilidades de posicionar una determinada cadena lateral sean múltiples (aunque
también suelen ser reducidas).
Por ejemplo: La prolina no posee ninguna posibilidad de giro, mientras que la glicina tiene
muchas más opciones, dependiendo de la localización del aminoácido, se pueden tener más o
menos posibilidades de giro de la cadena de R.
- Principalmente:
■ Las regiones loops son las que conforman el núcleo central de la proteína y en la
gran mayoría de los casos son las regiones que se enfrentan al solvente (exterior de
la proteína), por lo que son abundantes en aminoácidos polares e hidrofílicos.
■ Esto se debe a que los grupos carbonilo y amino no van a formar puentes de
hidrógeno entre sí, como lo hacen las estructuras secundarias (hélices y láminas),
sino que se unen a las moléculas del solvente (agua).
■ Esto que podría suponer un problema se puede considerar como una ventaja, pues
poseer una abundancia de aminoácidos polares puede marcar una región como
perteneciente a un loop.
7
■ Como son las regiones menos conservadas a lo largo de la evolución, ésta puede ser
posiblemente la única forma de delimitar hasta dónde llegan estas regiones.
- Dichas regiones también forman parte de los centros activos de la propia proteína o de su
propia función, por lo que serán loops que han de mantenerse a lo largo de la evolución.
Por ejemplo, las inmunoglobulinas:
INMUNOGLOBULINAS
Todas las regiones que tienen que ver con el reconocimiento de Antígenos (Ag), están compuestas
por regiones loops, por lo que cuando alguien quiere modelizar un nuevo Anticuerpo (Ac) tiene que
mantener el núcleo (que es la gran mayoría de la proteína estable) y variar únicamente las regiones
loops en función de los que se esté buscando.
8
- Existen regiones loop especialmente largas, que en su estudio mediante difracción de rayos
X o RMN, son imposibles de localizar, ya que ambas técnicas de análisis utilizan fotografías
fijas de un estadío de una proteína.
Su extremada longitud hace que puedan formar parte de elementos móviles que permiten,
por ejemplo, la apertura y cierre de un canal atravesado por un sustrato, formar regiones
de unión y reconocimiento entre la proteína y otras estructuras, por lo que el cristal en la
difracción contendrá la misma proteína con la misma secuencia y estructura tridimensional.
Pero en el caso de los loops móviles, el cristal presentará el loop en posiciones diferentes,
dando lugar a una zona no definida, ya que esa región aparecerá en diversos sitios del
espacio a la vez.
○ BLAST: Se centra en las regiones más similares y admite menos "gaps" (secuencias de
aminoácidos que no se corresponden con la modelo), dando su resultado en probabilidades.
○ FASTA: Proporciona resultados más generales (menos resolutivos) al admitir mayor rango de
gaps. Su resultado se expresa en valor numérico natural.
- Los dos utilizan sistemas de comparación diferentes y dan valores diferentes para cuantificar
esa comparación.
9
proteínas que tengan menor probabilidad de encontrar el mismo resultado al azar.
a. Para el modelado se utilizan como mucho hasta 10 secuencias, de las cuales elegiremos la
que más similitud tenga (la que más identidades obtengan con respecto a la nuestra), esta
será nuestra secuencia de referencia. El resto de las secuencias se ordenarán en función de
la secuencia de referencia, utilizando para ello, única y exclusivamente los C∝ que
estuviesen a 3 Å o menos de cada C∝ comparando los C∝ de la secuencia de referencia.
Con esto, se obtiene un alineamiento múltiple estructuralmente correcto.
- Para ello tan solo se tendrán en cuenta los C∝ de los aminoácidos pertenecientes a las
estructuras del centro hidrofóbico de las proteínas, por lo que no se tendrán en cuenta las
regiones conectoras, salvo que los loop también estén conservados.
Cuanto más coincidan en el alineamiento, menos promedio tendremos que sacar, pues más se
parecerá a la mayoría que el resto de aminoácidos del alineamiento.
- En este marco de trabajo no se tienen en cuenta los loops, a no ser que se haya obtenido un
alto grado de homología en estas regiones (Los loops son las estructuras que más varían
entre proteínas homólogas).
- Para modelizar las regiones loops que no son similares en secuencia junto con el resto de la
proteína, lo que se hace es volver a buscar mediante un algoritmo de repuesto, regiones
homólogas a los loops, para los cuales sí que haya datos experimentales y se pueden localizar
en los 3 planos del espacio. Lo que se hace entonces, es extraer la información de la base de
datos de proteínas que contengan loops con secuencias similares.
- Para su extracción, no solo se bajan las posiciones de los aminoácidos de nuestro loop, sino
que además se bajan los datos de aminoácidos del entorno (los cuales conforman la base de
las regiones loop), ya que para conocer el punto de inserción del loop es necesario tener en
10
cuenta de 4 a 5 aminoácidos que se encuentran delante y detrás de la región conectora.
- Con esto, se ordenan por semejanza y se colocan por orden de identidad dentro de la
nuestra estructura, tan solo se colocan aquellos que no presenten impedimentos estéricos
con los aminoácidos de la base que ya hemos colocado. Dicho de otra manera:
Una vez determinados todos los loops posibles, se clasificarán sometiéndose al Test de Van der
Waals, este medirá la posición exacta estable a la que debe localizarse cada elemento para que no
se repelan, es decir, determinará las posiciones adecuadas de cada loop para que no ocurran
interacciones inestables con sus alrededores.
Si en un primer nivel de precisión no encontramos una posición estable, se bajará hasta que algún
loop encaje en la estructur.
- Cada vez es más fácil encontrar secuencias similares y que coincidan en las regiones de
inserción, ya que hoy en día la cantidad de datos de estructura de proteínas es mucho
mayor, por lo que supone un gran avance y aumenta la facilidad del trabajo. Pero también es
necesario tener en cuenta que estas técnicas no son sino explotaciones de una situación
teórica.
- Una vez colocados los loops, toca colocar el resto de los átomos, pues hasta ahora solo se
han tenido en cuenta los C∝ que conforman el esqueleto proteico. Para posicionar el resto
de los átomos, se utiliza una sublibrería de la PDB en la cual hay estructuras muy definidas
con una alta resolución de pentapéptidos (cadenas de 5 aminoácidos).
- Con esto, se promedian las posiciones de los 3 aminoácidos centrales, después se toma un
segundo pentapéptido que cubriría los 5 siguientes y se vuelven a promediar las posiciones
de los 3 centrales, y estas serán las posiciones donde situaremos los átomos de nuestra
proteína.
Asumiremos que la estructura de los pentapéptidos se mantendrá en las regiones de igual
secuencia de nuestra proteína, lo que supondrá otra fuente de error.
- Esto se realiza a lo largo de toda la secuencia y con esto se estima que la desviación de
nuestra posición con respecto a la estructura real no está más allá de 0,2 Å de desviación
típica, lo cual indica que está muy bien ajustado, colocándose, así, los átomos de O y C
diferentes del C∝.
11
- Es la principal fuente de inexactitud en la modelación por homología, puesto que no existe
una base de datos para obtener posiciones fijas de cadenas laterales. Esto se debe a que
cada cadena lateral, excepto la de la prolina, tiene una capacidad de giro muy grande, es
decir, cada R en casi cualquier posición puede tener múltiples distribuciones en el espacio, lo
que dificulta posicionar una determinada cadena lateral únicamente en función de la
secuencia de aminoácidos.
En función de la propensión de las R por una distribución espacial u otra, se buscan las más
similares en función de la nuestra y se colocan en nuestra secuencia. Para ello, se utiliza el
test de Van der Waals, que comprueba que no existen impedimentos estéricos ni
relaciones de alta energía (situaciones de inestabilidad) entre las cadenas R, en función de
la forma de nuestro marco de trabajo.
1. Las R se van colocando en función del un umbral dado por el test de Van der Waals y
solo se colocan las R que hayan superado este test, mientras que las que no lo
superan no serán colocadas.
2. De cada posición, se hace una lista de cuáles son los rotámeros más probables, y se
ordenan de más a menos estables, teniendo en cuenta, única y exclusivamente,
aquellos que hayan superado el test, como hemos citado.
4. Si continúan existiendo residuos sin colocar, se baja el umbral de exigencia del test.
Obviamente, al inicio, el umbral se establece muy alto para que las posiciones sean
siempre las más estables, pero en realidad las proteínas no son extremadamente
estables, sino que mantienen cierta flexibilidad.
12
menos parte de sus características estructurales se encuentren alteradas (un
ejemplo es, por ejemplo, cuando una estructura se ha predicho como una hélice alfa
y en realidad es una lámina beta).
Estos fallos vienen dados, normalmente, por la baja identidad entre las secuencias
de las proteínas que se han utilizado para generar los modelos. Lo que hace que se
marquen las predicciones como erróneos o de baja calidad.
Además de esto, es necesario tener en cuenta que tratamos con entidades bioquímicas con
una determinada función, ya que los programas y métodos utilizados basan sus resultados
en datos de estabilidad energética, teniendo en cuenta solamente la estabilidad de las
estructuras y no su carácter biológico. Para ello existen programas que tratan de sumar a la
estabilidad de la estructura, un sentido biológico. Existen estructuras muy estables que no
podrían tener una función dentro del organismo. Por ejemplo, si la proteína contiene su
centro activo en la superficie.
○ Precisión: Está limitada por la desviación del modelo utilizado con respecto a un
supuesto futuro modelo experimental, de modo que secuencias entre un 30-50%
idénticas en su estructura interna, se desvían de su situación real entre 1-1,5 Å.
13
experimentos; por ejemplo, podremos realizar mutagénesis pero no técnicas de
docking (basadas en el acoplamiento molecular de dos elementos; para llevarlo a
cabo, tendremos que conocer con gran precisión la estructura terciaria proteica para
realizar las modificaciones necesarias para asegurar compatibilidad en la unión).
➔ Método estereoquímico: Se basaba en obtener las estructuras que dieran como resultado
las conformaciones más estables y compactas para el interior de la proteína. Se buscaba el
compactamiento mayor para el interior de las proteínas. El interior de las proteínas.
Chou y Fasman: A partir del estudio de 15 estructuras resueltas por cristalografía de rayos X,
dando valores específicos de probabilidad, para cada aminoácido, de formar cada uno de los
3 grandes grupos de estructura. Al emplearse, se obtuvo una exactitud del 57 % sobre 62
proteínas. A estos datos se le aplicaban unas reglas determinadas:
1. Para cualquier segmento de seis o más aminoácidos con una Pα ≥ 1’03 y Pα >Pβ (es decir,
aquellos segmentos que tengan una probabilidad
de formar parte de una hélice alfa mayor a la
probabilidad de ser parte de una cadena beta)
donde no encontremos prolina, asumiremos que
forma parte de una hélice alfa. Sin embargo,
cabe destacar que estas generalizaciones son
peligrosas, ya que actualmente sabemos que la
prolina puede encontrarse también en hélices
alfa.
14
posibilidades de que forme parte de un giro β; sin embargo, como estas no son estructuras
fijas, este dato no será muy seguro.
G.O.R: La ventaja que supuso el método de G.O.R es que utilizaban más o menos las misma
reglas, con tablas muy parecidas, pero a partir de 25 estructuras, y además de las
probabilidades de los aminoácidos en cada una de las estructuras, tenían en cuenta los 8
aminoácidos antes y los 8 aminoácidos después de las estructuras, aumentando el éxito de
las estructuras porque incluían las reacciones a corto alcance. Sus tasas de acierto eran tan
solo de un 30 %.
- Cuando la proteína se daba entre proteínas con un elevado porcentaje de identidad, estos
mismos métodos se pueden dar a predecir estructuras con un acierto del 70%, ya que es
más aceptable sobre todo teniendo en cuenta que en la mayoría de casos, ese 30% de fallo
se debía a zonas que no tenían que ver con la estructura o con la función de la proteína.
Un caso práctico fue la predicción de la triptófano sintasa, la cual solo se conocía su
secuencia y mediante estos datos se pudo modelizar prácticamente toda la proteína.
- Otro método para la predicción de estructuras secundarias es por el efecto hidrofóbico, este
15
método se basa en el hecho de que cualquier proceso biológico ha de cumplir las leyes de
la termodinámica. El plegamiento de las proteínas tiene que responder a que la energía
libre de Gibbs sea menor en el estado nativo que en el estado desnaturalizado. La fórmula de
Gibbs tiene:
○ Componente entálpico: Determinado por las opciones que te dan al final de las estructuras
secundarias.
○ Componente entrópico: Que tiene dos direcciones:
1. En contra del plegamiento: Que tenían que pasar de una estructura desordenada a
una estructura ordenada.
2. A favor del plegamiento: Supondrá el componente hidrofóbico. Se cumple el
principio de la termodinámica, se tienede al desorden.
- La realidad es que las estructuras secundarias no se forman per sé, de hecho, en solución, las
estructuras secundarias no existen porque a un determinado aminoácido o a una
determinada secuencia de aminoácidos le da lo mismo tener relación con las moléculas de
agua que con otro aminoácido.
Es decir, los puentes de hidrógeno que forman los aminoácidos de las estructuras secundarias se van
a formar igual con agua que con otros aminoácidos, por tanto, el efecto hidrofóbico es el disparador
de la formación de las estructuras secundarias.
- Al final el enterramiento de estos aminoácidos puede hacer que secuencias muy alejadas en
secuencia acaben estando muy cerca en el espacio formando una determinada estructura
secundaria.
16
pero que permita su cambio estructural siempre que se necesite. Por esta causa es
tan difícil modelizar una proteína, ya que no sigue reglas exactas como la
hidrofobicidad.
- En la mayoría de casos, los bucles y las regiones conectoras tienen carácter hidrofílico.
Además de estas estructuras, hay otras dentro de las proteínas que no tienen estructura,
como las zonas de ovillo aleatorio, que están inmersas dentro de las propia estructura de
esa proteína. Son aquellas secuencias que no vamos a poder determinar su estructura ni
por rayos X ni por resonancia, porque en ninguno de los dos casos va a tener una estructura
fija. Esas zonas son móviles que o bien pertenecen a la función de proteína o bien no tiene
nada que ver pero tampoco estorban. Es imposible saber la estructura que van a tener.
Debido a:
- El número de estructuras disponibles es demasiado pequeño para extrapolar al espacio
de secuencias. Difiriendo a veces entre distintos cristales para la misma secuencia.
- No se tienen en cuenta los efectos provocados por residuos situados a grandes distancias
en secuencia.
17
Métodos de tercera generación
- Iniciada por Levin en 1993 con una fiabilidad en torno al 70% y por Rost y Sander
en 1994 con una fiabilidad del 72%.
- En este tipo de algoritmos, la fórmula que va a calcular los datos está alimentada de
diversos tipos de información (propensión estadística de los determinados aminoácidos para
formar una determinada estructura, información sobre los aminoácidos de alrededor...), para
mejorar el acierto.
La red neuronal PHD nos aporta información sobre la secuencia de la familia de proteína y el perfil
derivado del alineamiento múltiple para una ventana de residuos adyacentes.
- Todos los datos que se obtengan de estos métodos y la evolución de estos sistemas de
predicción conllevarán un progreso que es actualmente revisado en los C.A.S.P., congresos
en los que se reúne personal dedicado al estudio estructural de macromoléculas donde
proponen qué grupos de investigación se centrarán en el estudio estructural de ciertas
18
proteínas desconocidas a partir de sus secuencias o en el estudio de sus secuencias a partir
de estructuras terciarias conocidas.
- Además, cada dos años se reunirán para comparar resultados y analizar el funcionamiento
de la metodología.
La primera database creada tan solo tenía unos 800 plegamientos diferentes que provenían
de 6000 proteínas. Lo que pretendía era dar una preferencia a cada uno de los aminoácidos
en estas estructuras, de forma que se pudiese transformar la tabla en 3 dimensiones, que
supone un archivo de la Protein Data Bank, en una tabla de una única dimensión, para ello
creó el método del Perfil 3D, y mediante una serie de normas se asignaron a cada
aminoácido un valor numérico. Las normas de asignación de estos valores a los
aminoácidos son:
1. Caracterizar el ambiente del aminoácidos en función de las áreas de las cadenas laterales
que se encontrasen enterradas por otros residuos de las proteínas.
Las dos primeras reglas daban lugar a 6 grupos con una distribución arbitraria, junto con las
3 finales daban un total de 18 ambientes diferentes para cada uno de los aminoácidos. Lo
que se hizo con esto fue transformar la estructura tridimensional de estos plegamientos
(proteínas) en una tabla de una única dimensión con valores numéricos. De este modo, a la
hora de aplicar métodos de threading sobre una determinada secuencia, el trabajo era
relativamente más sencillo, ya que ahora tan solo implica la comparación de dos estructuras
con una dimensión cada uno.
A las 18 posibilidades se les da un valor numérico y se comparan con las secuencias que se
quieren modelizar y esto arroja un valor Z, que es el valor designa el grado de calidad de la
predicción, cuanto mayor es el valor Z, mayor es la probabilidad de que la proteína problema
presente realmente la estructura predicha.
Cuando ya se ha obtenido la estructura terciaria que satisface las propensiones de cada uno
de los aminoácidos, esta se refina mediante métodos de energía de modo que se elimina
situaciones en las que existan inestabilidades por cercanía e impedimentos estéricos.
19
Estos algoritmos se pueden clasificar en dos grupos dependiendo si se basan en:
Una de las ventajas de este método es que la predicción no se limita a los pliegues
ya conocidos. Sin embargo, las leyes fisicoquímicas que rigen este comportamiento
aún no son bien conocidas, lo cual sigue siendo un gran reto de la bioinformática.
20
Modelo Rosetta: Es un servidor el cual permite predecir estructuras
tridimensionales usando el método AB initio.
Los resultados para cada uno de estos segmentos se juntan para llevar a cabo la
configuración en tres dimensiones (todas las combinaciones posibles). La
conformación con la menor energía global es la elegida.
→ El fin de todas estas técnicas es el diseño de frecuencias que tengan una estructura
tridimensional determinada. Una vez creada esta estructura terciaria ideal se debe dar contenido a
esta, pues hacerlo en el sentido contrario no es muy sencillo. Los criterios a tener en cuneta para el
diseño de estas proteínas son:
● Super Hélices o hélices superenrolladas (coiled coils): (como ejemplo se tomó la estructura
de la miosina y tropomiosina). Para ello se diseña la secuencia de dos estructuras
secundarias que den lugar a hélices α y se mantienen en las posiciones 1 y 4 (aa
hidrofóbicos), siendo el cuarto aminoácido siempre Leu, y cambiando los aa polares que
quedan hacia fuera de la estructura, con carga positiva en un caso y carga más negativa en el
otro. Con esto se evita que se formen multímeros de la misma hebra y se favorece el hecho
de que se junten dos hélices diferentes.
● Estructuras con láminas β: Su diseño es el que implica una mayor dificultad, ya que contiene
estructuras β que poseen una alta heterogeneidad en las zonas de unión de las láminas,
además las cadenas se estabilizan entre sí por puentes de H2, más o menos perpendiculares
en la dirección de la hebra, pero que pueden estar muy alejados entre sí, lo que complica
21
mucho el diseño de estas estructuras. Es complejo trabajar con láminas beta porque los
aminoácidos que lo forman están lejanos entre sí (son de largo alcance).
○ Dedos de Zinc
22