Está en la página 1de 40

TRABAJO DE BIOCIBERNETICA

PROFESOR: SEGUNDO ELADIO SAMACA


JUAN RICARDO CUBIDES GARZON
UNIVERSIDAD INCCA DE COLOMBIA

TALLER:

1. DEFINIR QUE ES SISTEMAS DE CONTROL, TIPOS, APLICACIONES BIOLOGICAS Y


MECANISMOS DE CONTROL.

R) Antes de comenzar con una definición de sistema de control tenemos que tener en
claro que significa cada término por separado, lo que nos llevara a una mejor definición y
entendimiento de este concepto. Sistema se define como la combinación de
componentes que actúan juntos y realizan un objetivo determinado. Un sistema no
necesariamente es físico. Este concepto se aplica a los fenómenos abstractos y dinámicos,
tales como los que se encuentran en la economía. Por tanto, la palabra sistema debe
interpretarse como una implicación de sistemas físicos, biológicos, económicos y similares
(Ogata, 1998).

A diferencia de Control que es definido como la Acción ejercida con el fin de poder
mantener una variable dentro de un rango de valores predeterminados (Mendiburu,
2007), a partir de estos conceptos se ha considerado que los sistemas de control son
arreglo de componentes físicos interconectados de forma que se puedan comandar
dinámicamente (Ramírez y Rosero, 2007) de igual forma existen otro tipo de definiciones
como la que sugiere la teoría Cibernética la cual consiste en la aplicación a todos los
organismos vivos, las maquinas, los procesos y las organizaciones. La relación de estos
sistemas se llevo a cabo en 1948 por Norbert Wiener en su obra Cibernética y sociedad
con aplicación en la teoría de los mecanismos de control (Cosco, 2008).

De igual forma se observa una variedad de sistemas de control, entre los cuales podemos
observar los siguientes:

 Sistemas de Control de Lazo Abierto (Open loop)

Este sistema consiste en la ausencia de una realimentación del proceso al controlador, es


decir, no se mide la salida ni se realimenta para compararla con la de entrada un ejemplo
claro de este sistema son las licuadoras, lavadoras, hornos entre otros. Su principal
ventaja es la facilidad de implementar, economía y de fácil mantenimiento. De igual forma
presenta una desventaja la cual es su exactitud ya que no presentan la capacidad de
corregir sus errores. Por tal razón la eficiencia esta dad por la calibración (fig 1.)
(Mendiburu, 2007).
Figura 1. Sistema de control de lazo abierto

 Sistemas de Control de Lazo cerrado (Feedback) .

Consiste en que se alimenta al controlador la señal de error, que es diferente a la señal de


entrada y realimentación, con la finalidad de reducir el error y llevar la salida del sistema a
un valor conveniente. Presenta dos tipos de realimentación una positiva y una negativa.
La realimentación positiva es donde la señal realimentada se suma a la señal de entrada
(regenerativa), un ejemplo son los osciladores (fig 2) (Mendiburu, 2007) :

Figura 2. Sistema de control de lazo cerrado

A comparación de la realimentación negativa la cual consiste en restar la señal


realimentada de la señal de entrada, causando un error. Este caso lo observamos en el
control de procesos industriales (fig 3) (Mendiburu, 2007).
Figura 3. Diagrama de Bloques

Además los sistemas de control pueden presentar una clasificación de acuerdo a los
criterios, como son:

 Según su dimensión: Sistemas de parámetros concentrados: Son aquellos que


pueden ser descritos por ecuaciones diferenciales ordinarias. También son
conocidos como sistemas de dimensión finita (Mendiburu, 2007).

 Según el carácter de transmisión en el tiempo: Sistemas continuos: Son aquellos


descritos mediante ecuaciones diferenciales, donde las variables poseen un valor
para todo tiempo posible dentro de un intervalo de tiempo finito. Por ejemplo el
proceso de llenado de gas a un balón (Mendiburu, 2007).

 Según sus aplicaciones: Sistema servomecanismos : Son aquellos en donde la


variable controlada es la posición o el incremento de la posición con respecto al
tiempo. Por ejemplo un mecanismo de control de velocidad, un brazo robótico,
etc. O un sistema s secuénciales: Son aquellos en donde un conjunto de
operaciones preestablecidas es ejecutada en un orden dado. Por ejemplo el
arranque y parada de un motor entre otros (Mendiburu, 2007).

En biología estos sistemas presentan una seria de aplicaciones acorde a la funcionalidad


como podemos observar a continuación:

 CONTROL ON-OFF: Este método solo acepta dos posiciones para poder funcionar
que son encendido (100%) y un apagado (0%). La lógica de su funcionamiento es
tener un punto de referencia, si la variable es mayor el actuador asume una
posición y si es menor asume la otra posición, por ejemplo los refrigeradores
domésticos, los sistemas de seguridad contra robos entre otros (Mendiburu, 2007).
.
 CONTROL NEURONAL: hace referencia al uso de neuronas de inteligencia artificial,
debido a que las redes neuronales son parte de la inteligencia artificial (AI)
caracterizada por su aprendizaje, su velocidad de procesamiento masivo de
información y facilidad de de modelado de sistemas y controladores no lineales
(fig.4) (Mendiburu, 2007) .

Figura 4. Control neuronal

ALGORITMOS GENÉTICOS: Este método simula la evolución natural de las especies


propuesta por Charles Darwin, fui creado por John Holland 1970. La información va
sufriendo cambios igual que lo harían las especies, es decir se van adaptando al entorno,
lo cual se lleva a cabo por medio de los procesos de selección natural, mezcla, y mutación.
En cada ciclo (iteración) una parte del conjunto de hipótesis conocido como población
actual, es reemplazado por una nueva población mediante las funciones evolutivas
anteriores. Así sucesivamente en cada ciclo la población es evaluada en base a una
función evolutiva, siendo conservados los da tos más exactos, y siendo eliminados los da
tos que presentan error (selección natural). Para conserva r el número de individuos (da
tos) estos son mezclados, lo cual genera nuevos individuos similares a sus procreadores.
Finalmente cada cierto tiempo o dada cierta cantidad de individuos, algunos de los nuevos
individuos son mutados aleatoriamente, pudiendo ser conservados o eliminados en la
próxima iteración dependiendo de su utilidad dentro del sistema (Mendiburu, 2007). .

SISTEMAS EXPERTOS: Estos sistemas tratan de emular la experiencia adquirida por uno o
más seres humanos a lo largo del tiempo para realizar un trabajo. Este sistema tendrá en
su memoria una base de datos con múltiples soluciones a un mismo problema, luego el
sistema tendrá que escoger de entre esas soluciones a la que pueda aplicar se a fin de
lograr los mejores resultados. El sistema se crea basándose en las experiencias humanas,
la elección de la estructura de control dependerá de las características del trabajo en
donde se aplicará, además el sistema podrá ir aprendiendo con el tiempo y almacenar sus
propias experiencias, existe mucha analogía entre los sistemas expertos y los sistemas
neuro-fuzzy (Mendiburu, 2007).

Como sabemos existen ciertos mecanismos de control lo que permitirá corregir los errores
que se presentan, entre los cuales podemos observar:
CONTROLADOR INTEGRAL (I): Conocido cono RESET. Este tipo de controlador anula
errores y corrige perturbaciones, mediante la búsqueda de la señal de referencia, necesita
de un tiempo Ti para localizar dicha señal. Se representa mediante el término Ki que es el
coeficiente de acción integral y es igual a 1/Ti (Ramirez, Rosero, 2007).

CONTROLADOR PROPORCIONAL (P): Es un control que se basa en la ganancia aplicada al


sistema, se basa en el principio de que la respuesta del controlador deber ser proporcional
a la magnitud del error. No corrige ni elimina perturbaciones, puede atenuar o aumentar
la señal de error. Se representa a través del parámetro Kp y define la fuerza o potencia
con que el controlador reacciona frente a un error (Ramirez, Rosero, 2007).

CONTROL ANTICIPATORIO (Feedforward) : Este método permite al controlador analizar


los da tos de entrada y de salida y mediante algoritmos matemáticos calculará la próxima
salida probable, de modo tal que auto a justa sus parámetros con la finalidad de adecua r
se al cambio, y minimizar la diferencia de medidas. Se recomienda para procesos lentos.
Su desventaja radica en que es necesario medir todas las variables perturbadoras, ya que
no corrige las perturbaciones no medidas (Ramirez, Rosero, 2007).
CONTROL ADAPTATIVO: Es una variante del control anticipatorio, en donde la respuesta
del controlador varía automáticamente basado en los cambios de las condiciones dentro
del proceso, es decir , la respuesta del controlador será variable dependiendo del
comportamiento actual del proceso. Para que se lleve a cabo esta adaptación se requiere
de algoritmos matemáticos que simulen el proceso en base a los datos tomados en el
instante mismo en que se realiza la acción, este resultado va a genera r una señal
compensadora que garantizará la confiabilidad del sistema (Ramirez, Rosero, 2007).

2. SISTEMA CARDIOVASCULAR. RESPIRATORIO Y RENAL

2.1 SISTEMA CARDIOVASCULAR:

Este sistema está formado por una serie de sistemas hemodinámico (corazón y vasos
sanguíneos) y controlado por el sistema nervioso central (SNC). El sistema cardiovascular
es un sistema dinámico y complejo donde podemos considerar funciones como el llenado
y vaciado pulsátil de los ventrículos, el flujo de la sangre a través de los órganos, el control
realizado por el sistema nervioso central entre otros (Vallverdú, 1993).

El control cardiovascular es dado por dos acciones: la primera es la autorregulación, la


cual es realizada por las propiedades hemodinámicas del propio sistema cardiovascular y
la segunda es la que se realiza por el sistema nervioso central de control. Ciertas
funciones reguladoras nerviosas y hormonales son mucho mas rápidas actuando que la
autorregulación, por lo que el SNC de control determinara la dinámica de la respuesta del
sistema cardiovascular (Vallverdú, 1993).

El sistema hemodinámico tiene como principal función la circulación continua de sangre


para el transporte de oxigeno y sustancias metabólicas a los tejidos, así como la
eliminación de productos de oxidación. Las arterias son los vasos que soportan mayor
presión y su pared está compuesta por tres capas; la primera es una capa adventicia
ubicada en la parte exterior formada por tejido conectivo, en el centro una capa media
gruesa compuesta por musculo liso y fibras elásticas en disposición circular y por ultimo
encontramos en el interior una capa delgada llamada intima formada por endotelio plano
(Vallverdú, 1993).

El sistema vascular periférico está formado por las arteriolas, capilares y vénulas. Las
arteriolas son las ramificaciones de las arterias pero no presenta tejido elástico en la capa
media. Los capilares forman una red de canales con diámetros pequeños llegando a
superficies grandes, de esta forma la velocidad de la sangre es pequeña, permitiendo la
osmosis bioquímica necesaria para las células. Por último encontramos a las vénulas las
cuales son las encargadas de recoger la sangre que sale de los capilares, presentan un
diámetro mayor (Vallverdú, 1993).

Las venas presentan gran cantidad de tejido fibroso blando y poco musculo liso en la capa
media, por lo que sus paredes son delgadas. La mayoría de las venas tiene válvulas
membranosas, a poca distancia una de la otra, lo que obliga la circulación de la sangre
solo en dirección del corazón. Por otro lado las arterias tienen como función la
distribución de la sangre a las diversas partes del organismo, la función de las arteriolas es
controlar el volumen de sangre que va a una determinada zona. Esto se logra cambiando
el tono muscular, lo cual genera variación de calibre y el flujo de sangre (Vallverdú, 1993).

El corazón es denominado el dominio de bombeo, con un tamaño aproximado de un puño


cerrado, está ubicado en una pequeña región entre la tercera y sexta costilla de la porción
central de la cavidad torácica del cuerpo. Dentro del Corazón se encuentra tres capas: la
externa, compuesta por una capa fibrotica denominada pericardio. Esta última es una
capa doble compuesta por: su parte externa, que la aísla en su funcionamiento y evita el
roce con los pulmones; y su parte interna le permite deslizarse sobre la externa. La media,
que es el miocardio o el corazón propiamente dicho, y la interna, denominada endocardio,
que recubre las cavidades y les confiere la característica de ser lisas (Ariza, 2009).

Está formado por cuatro cámaras, dos aurículas y dos ventrículos, que actúan como
bombas unidireccionales. En primer lugar pasa la sangre de la aurícula al ventrículo por
gradiente de presión, donde se completándose por una concentración auricular final. A
continuación se contrae el ventrículo impulsando la sangre a la red vascular. Este sistema
es efectivo gracias a las cuatro válvulas cardiacas. La válvula tricúspide localizada entre la
aurícula y ventrículo derecho, la válvula mitral entre la aurícula y ventrículo izquierdo. La
válvula mitral está formada por dos aletas y la tricúspide por tres (Ariza, 2009).

Estructura del corazón humano

El corazón tiene la capacidad de alojar aproximadamente el 6,5% del volumen total de


sangre en un individuo típico, siendo este un valor nominal ya que el corazón
alternadamente se llena y se expande, y se vacía y contrae, a medida que genera una
salida cardiaca. Durante los 480ms de la fase de llenado o diástole, del promedio de 750
ms que dura el ciclo cardiaco completo, las válvulas de entrada de los dos ventrículos
están abiertas, y las válvulas de salida están cerradas, el corazón se expande entonces a su
volumen diastólico (EDV), que está en el orden de los 140 ml de sangre para el ventrículo
izquierdo. Durante los siguientes 270 ms de su fase de vaciado o sístole, las válvulas de
entrada son forzadas por una contracción de músculo cardiaco inducido eléctricamente a
cerrarse, mientras el corazón se contrae a su volumen sistólico(ESV), el cual es
típicamente del orden de los 70 ml de sangre para el ventrículo izquierdo. Entonces, los
ventrículos normalmente se vacían hasta la mitad de su contenido con cada latido del
corazón, lo que queda es llamado volumen de reserva cardiaca (Ariza, 2009).

La diferencia entre el EDV y ESV, es llamada volumen de golpe (stroke volumen, SV) siendo
este el volumen de sangre expulsada del corazón durante cada intervalo sistólico, y el ratio de
SV a EDV es llamado fracción de eyección cardiaca o ratio de eyección. Si el SV es multiplicado
por el numero de intervalos sistólicos por minuto o del corazón (Hearth rate, HR) se obtiene el
total de la salida cardiaca (Cardiac output, CO) (Ariza, 2009).

El sistema nervioso central es el encargado de controlar el sistema hemodinámico,


generando señales que regulan los vasos sanguíneos y el corazón. Estas señales son
transmitidas desde los sistemas simpático y parasimpático o vagal, produciendo estímulos
en los órganos y sistemas donde actúa. La recepción de la información que realiza el SNC
al sistema hemodinámico es llevado por barorreceptores, quimiorreceptores, entre otros.
Los barorreceptores esta ubicados en las paredes de las principales arterias, estos
monitorizan la presión del seno carotideo y del arco aórtico y transmiten la información al
SNC de control. Cuando hay un cambio de presión estos transmiten un señal al SNC
inhibiendo una actividad simpática y parasimpática (Vallverdú, 1993).

Las células del nódulo sinoauricular y nódulo A-V son células musculares especializadas,
con un potencial (en reposo) de electronegatividad máxima de –55 y -60 milivoltios. La
causa de esta reducida electronegatividad es que las fibras del nódulo del seno están
cargadas de iones sodio. Hay que recordar que existen tres tipos de conductos de iones
en la membrana de las células cardíaca, presentando funciones importantes en la
producción de cambio de voltaje en el potencial de acción, estas son: canales rapidos de
sodio, canales lentos de calcio y sodio y canales de potasio (Kaliman, 2005)

En las fibras del nódulo sinusal o sinoauricular al presentar durante el potencial de reposo
sólo –55 milivoltios, a este nivel los canales de sodio se hallan inactivos en su mayor parte,
por lo tanto solo permanecen abiertos los canales de calcio y sodio, y causan en
consecuencia el potencial de acción, por este motivo este potencial se desarrolla con
mayor lentitud que el ventricular. Los iones de sodio difunden al interior de la fibra a
través de canales que se encuentran en la membrana, esto induce al aumento de
potencial y cuando alcanza el voltaje umbral de –40 milivoltios, los canales de sodio y
calcio se activan, y producen el potencial de acción. Las fibras no se hallan todo el tiempo
despolarizadas, debido a que luego de 100-150 milisegundos los canales de sodio y calcio
se cierran y se abren los canales de potasio, difundiendo grandes cantidades de potasio al
exterior de la célula interrumpiendo el potencial de acción. El exceso de cargas negativas
dentro de la célula produce una hiperpolarización. Esto no es permanente porque
también luego se van cerrando los canales de potasio y los de sodio se vuelven a abrir, y
el proceso comienza de nuevo. El potencial de membrana de este tipo de células es
potencial en espiga (fig. 5) (Kaliman, 2005)
Figura 5. El potencial de membrana

SANGRE

Constituye aproximadamente un 8 ± 1% del total peso del cuerpo, unos 5200 ml. es una
compleja conjunción de elementos, las células de la sangre o hematocitos, albergados en un
fluido llamado plasma. La sangre consta de una porción liquida Vp, el volumen del plasma y
una porción celular Vc, el volumen de células. En consecuencia el volumen de sangre Vsa o
volemia, esta dado por:

Vsa=Vp+Vc
Que dividida por Vsa y multiplicada por 100 produce:

100=P1%+H1%
Donde P1% es igual 100 Vp/Vsa y H1%= 100 Vc/Vsa son, respectivamente, el plasmacrito y el
hematocrito, con valores normales de 55 y 45% (Mompín, 1988).

2.2 SISTEMA RESPIRATORIO

El sistema respiratorio consiste en una entra y salida del sistema de mantenimiento


presentando una conexión con el medio externo. Su principal misión es suministrar oxigeno y
eliminar dióxido de carbono. Cumple otras funciones como el equilibrio ácido-base, en la
regulación de pérdida de agua, perdida de calor, facilita la circulación pulmonar entre
otras( Mompín, 1988).
EL funcionamiento de la respiración esta divido en dos grandes procesos, el transporte de
gases hacia los pulmones y la mecánica de los pulmones y la caja torácica. En dicha mecánica
para que se pueda tener el intercambio gaseoso entre el exterior y el sistema respiratorio se
requiere de una inflación y deflación de los pulmones, lo cual es logrado gracias a los músculos
respiratorios que permiten el estiramiento de los pulmones y el tórax y vencer la resistencia al
flujo aéreo (Addiego, 2006).

Existen dos tipos de mecanismos en los cuales que describen el sistema respiratorio estos
son; Modelo resistivo- elástico y modelo viscoelástico, en estos modelos se toma a los
pulmones y la caja torácica de un material deformable por presión, que presenta un
comportamiento elástico y que genera una resistencia al flujo de gas por el mismo
(Addiego, 2006).

De igual forma el sistema respiratorio presenta una serie de componentes como son los
resistivo los cuales se deben a la fricción que ejerce el flujo de gas (aire) sobre los tejidos,
y se compone de la resistencia que presentan los tejido pulmonar mas la resistencia que
tiene las vías respiratorias, siendo estas últimas las que aportan un 80% de la resistencia
en general. La resistencia de las vías respiratorias está dada por la ley de Poinseuille,
donde;

O sea, es directamente proporcional a la viscosidad del gas (n) y a la longitud de las vías
aéreas (l) e inversamente proporcional a la cuarta potencia del radio (r 4) (Addiego, 2006).
.

Otro componente es el de tipo elástico el cual presenta una distensibilidad o complacencia


(C), la cual determina la facilidad con la cual el pulmón puede distenderse o contraerse
para permitir la entrada o salida del aire durante la inspiración o espiración
respectivamente (Addiego, 2006).
El rango en el que generalmente se encuentra la distensibilidad es entre 200-240
ml/cmH2O (Addiego, 2006).

En el modelo de resistivo-elástico utiliza una resistencia (R) y una elasticidad (E) como se
observa en la siguiente imagen:

Modelo resistivo-elástico

Por tal razón de plantea que una parte de la presión es utilizada para vencer la resistencia
que se opone a la circulación del flujo que tiene como nombre presión resistiva (Pr), y otra
es utiliza para distender el pulmón. Al realizar la inspiración se ejerce una flujo que es
constante se logra aumentar el volumen disipado de energía mediante el componente
resistivo (R), que actúa como amortiguador, a la vez que se almacena energía en el
componente elástico (E), la cual genera a continuación una presión motriz la cual es
necesaria para realizar la espiración y así concluir el proceso (Addiego, 2006).

A diferencia del modelo de viscoelástico el cual incorpora un tercer componente que se


llama cuerpo de Maxwell y se compone de un amortiguador (R2) en serio con una
elastancia (E2) como se observa en la siguiente imagen:
Este modelo en el momento que se para el flujo, la energía almacenada en la elastancia
(E2) se va disipando a través del amortiguador R2, evitando la liberación
instantáneamente, lo que evita el descenso brusco de la presión (Addiego, 2006).

A nivel de la circulación pulmonar se observa que los vasos sanguíneos pulmonares,


especialmente los capilares y vénulas, son paredes muy delgadas y flexibles. A diferencia
de los capilares sistémicos, los capilares pulmonares aumentan en diámetro, y aquellos
entre paredes alveolares separan alvéolos adyacentes con aumento en presión arterial o
decremento en la presión alveolar. Aunque la circulación pulmonar no se ve afectada en
gran parte por el control químico o neuronal, si responde rápidamente a la hipoxia. El
volumen total de sangre pulmonar es de aproximadamente 300 a 500 cm3 en adultos
normales, con alrededor de 60 a 100 cm3 en los capilares pulmonares. Este valor varían
por la postura, posición, enfermedad y composición de la sangre. Ya que la sangre de
arteria pulmonar es pobre en oxígeno y rica en dióxido de carbono, intercambia este
ultimo por oxígeno en los capilares pulmonares, los cuales están en estrecho contacto con
las paredes alveolares. En reposo, el tiempo de tránsito de la sangre en los capilares
pulmonares se calcula como:

Donde t= tiempo de transmisión de la sangre (s).


Vc: Volumen de sangre en los capilares, (m3).
¨Vc: total de flujo de sangre en los capilares, ( 3 ) (Ariza, 2009).
Los volúmenes pulmonares presenta gran importancia porque a partir de ellos de
determina la capacidad que presentan como es el caso de Volumen corriente (TV), es el
volumen de aire inspirado y espirado durante cada ciclo respiratorio normal, también el
volumen de reserva inspiratoria (IRV), el cual es el máximo volumen de aire que puede ser
inspirado desde el fin de una inspiración a volumen corriente. Volumen de reserva
espiratoria (ERV), el máximo volumen de aire que puede ser espirado desde el fin de una
espiración a volumen corriente y por ultimo encontramos volumen residual (RV), el menor
volumen de aire remanente en los pulmones luego de una espiración máxima (Ariza,
2009).

Volúmenes y capacidades pulmonares.

En los pulmones podemos encontrar tres tipos de receptores el primero es estiramiento,


el segundo es de irritación y por último los yuxtapulmonar-capilares (llamados J). Los
primeros son componentes del reflejo de Hering-Breuer, que consiste que al inspirar, se
distienden los pulmones, aumentando la actividad de los receptores de estiramiento, esta
información llega al SNC por fibras aferentes vágales, y se inhibe la inspiración. Los
segundos son estimulados por agentes irritantes como lo son la histamina y el amoniaco
así como pequeñas partículas que puedan ingresar a los pulmones. Y por último se cree
que el estimulo es generado por el aumento de volumen del liquido intersticial (Mompín,
1988).

2.3 SISTEMA RENAL

El sistema renal está constituido por un grupo complejo de órganos que en conjunto se
encargan de filtrar los productos residuales de la sangre y de fabricar, almacenar y
eliminar la orina. Este órgano es esencial para la hemostasia, ya que mantienen el
equilibrio hídrico, el equilibrio acidobásico y la presión arterial. La función des sistema
renal se enfoca en regular la concentración de metabolitos, la presión osmótica, regular el
volumen liquido y excretar sustancias, concentrando su actividad en el agua total de
organismo, especialmente en el volumen extracelular.

Todo el volumen sanguíneo pasa necesariamente por los riñones, ingresando por la
arteria renal y sale por la vena renal. De igual forma cada riñón posee un conducto de
salida, el uréter, que tiene como finalidad la vejiga. La arteria renal la cual es una por cada
riñón se ramifica terminando en una gran cantidad de arteriolas aferentes que entran en
una red capilar llamada glomérulo contenido en la cápsula de Bowman. Esta capsula
termina en el uréter lo que forman la unidad básica renal llamada nefrón (Mompín,
1988).

Toda la sangre que pasa por el glomérulo es ultrafiltrada, es decir partículas de peso
molecular inferiores a 75000 las cuales atravesaran las paredes capilares de los
glomérulos. La cápsula de Bowman recoge el filtrado glomerular el cual viaja por el
sistema tubular, durante el recorrido este líquido sufre una variedad de cambios como
procesos de reabsorción, de los túbulos del parénquima renal y de ahí a la sangre por los
capilares peritubulares, y tan bien sufre procesos de secreción. Existe una ecuación lineal
que describe el filtrado, la reabsorción y la secreción renal donde F es el filtrado
glomerular, Sy R son la reabsorción y la secreción respectivamente y E es la excreción
urinaria, todo ello medido en ml/min. Las variables entre los corchetes son las
concentraciones de la sustancias X las cuales están dadas en mg/ml, por tal razón la
ecuación planteada describe un equilibrio dinámico (Mompín, 1988).

Otro punto es la regulación osmótica del liquido extracelular donde en el ser humano los
valores están entre 283+- 11 mOns/litro, esto es dado fundamentalmente por regulación
de la ingesta y la excreción del agua. El riñón es más efectivo a la hora de controlar la
dilución (exceso de agua) que contra la deshidratación. El sistema renal solo es capaz de
eliminar o conservar agua, lo que genera un estimulo de sed gracias a los
osmorreceptores que están a nivel del SNC, teniendo como función el control de la sed y
los mecanismos renales (Mompín, 1988).

Los riñones mantiene un fuerte gradiente de concentración osmolar desde su parte


medular profunda con una osmolaridad de unos 1.400 mOns/litro, hasta su parte cortical
donde la concentración es menor de unos 300 mOns/litro. Hay un grupo de nefrones con
glomérulos a la altura de la corteza renal y asas de Henle, además los capilares
peritubulares acompañas a la par a las asas de Henle formando una especie de U (Fig.6).
Figura 6. Estructura anatómica de un nefrón cortical y uno medular

Cuando una persona esta deshidratada genera la activación la secreción de la hormona


antidiurética (ADH, llamada vasopresina), actuando sobre las paredes de los túbulos
contorneados distales aumentando la permeabilidad al agua. A diferencia cuando se bebe
mucha agua los osmorreceptores suprimen la activación de la ADH. Por tal razón en estos
dos casos una persona a las 24 horas puede excretar 0.5 litros de orina (en uno,
deshidratación) con una concentración de 1.400 mOns/litro, es decir, 700 mOns/litros
seria la carga osmolar excretada y 23.3 litros (dilución) a una concentración solo de 30
mOns/litro o sea es la misma carga osmolar excretada, es decir, la carga osmolar
secretada esta constante (Mompín, 1988).

El mecanismo de contracorriente es el sistema que se encarga de mantener el gradiente


medular y así la reabsorción de agua y solutos en él AH. Para este mecanismo son
indispensables tres factores:

 Movimiento del líquido en direcciones opuestas o contracorriente en sus dos


segmentos.
 Permeabilidades diferentes a lo largo del tubulo (segmento descendente
permeable al agua y segmento ascendente permeable los solutos)
 Transporte activo de iones hacia el espacio peritubular a nivel del segmento
ascendente grueso del AH gracias a la bomba Na+/K+/2Cl- (Diaz & Vargar, 2006).

Si se activa la bomba Na/K/2Cl en el segmento ascendente grueso (SAG) del AH, que se
encarga de sacar un ion Na+, un ion K+ (dos cationes) y dos iones Cl- (dos aniones) del
túbulo hacia el espacio peritubular, aumentando en este espacio su carga de solutos
(Hiperosmolar) pero electroneutral, de esta forma facilita la salida de agua desde el
segmento descendente delgado (SDD) como mecanismo para diluir el exceso de iones
(Diaz & Vargar, 2006) .
2-3%De esta forma al final del SDD el líquido tubular será Hiperosmolar
(»1200mosm/Kg.H2O, debido a la concentración de electrólitos por la salida de agua) y el
líquido peritubular a este nivel mantendrá la misma osmolaridad gracias a los vasa recta
que reabsorben solutos pero preferencialmente agua y permiten que en el intersticio se
concentren solutos (Imagen, 7). El líquido que entra al AH a medida que desciende se va
concentrando (perdiendo agua) hasta un punto máximo al nivel de su vértice y al ascender
por el SAG gracias al transporte activo de solutos se va diluyendo, el resultado neto un
líquido hipoosmolar-hipotónico al finalizar el AH (reabsorción del 25% del Na+ y 20% del
Agua filtrada) (Diaz&Vargar, 2006).

El flujo sanguíneo renal, como el flujo en cualquier otro oñgano, puede representarse por
la ecuación:

Q= ∆P/R, donde

Q= flujo sanguíneo, ∆P= gradiente de presión arterial a venosa; R= resistencia vascular a


través de dicho órgano por consiguiente, el flujo sanguíneo renal será:

Flujo sanguíneo renal= Presión aortica-presión en la vena renal


Resitencia vascular tenal

El flujo sanguíneo renal y la tasa de filtración glomerular están relacionados directamente


debido a la presión hidrostática de los capilares que depende de la presión arterial, la cual
esta a su vez relacionada con el flujo sanguíneo renal. De hecho existen mecanismos de
regulación que aumentan o reducen la tasa de filtración glomerular según el flujo renal.
Este flujo sanguíneo renal puede determinarse directa o indirectamente, los métodos
directos consisten en la administración de sustancias radioactivas determinado la
velocidad de desaparición del marcador (Wei,Le,coggins, Thorpe, Kaul, 2001).

Sin embargo, el método mas utilzado es el medoto indirecto de Fick basado en la medida
de aclaramiento de una determianda sustancia, a su paso por los riñones. La siguiente
ecuación define el balance de materias en los riñones:

Pax x FSRa = ( Pvx x FSRv) + (Ux x Vorina ) donde:

Pax y Pvx son las concentraciones de la sustancia X en la arteria renal y la vena renal


respectivamente
FSRa y FSRv los flujos sanguíneos en la arteria y vena renales, respectivamente
Ux es la concentración de la sustancia X en la orina y Vorina = flujo de orina

En otras palabras, esta ecuación dice que para cualquier sustancia que no sea sintetizada
o metabolizada en los riñones, la cantidad que entra en los mismos es igual a la cantidad
que sale que la orina menos la cantidad que sale de los riñones por la vena renal. En la
práctica, el flujo renal se determina inyectando por vía intravenosa una infusión constante
de p-aminohipurato una sustancia que se elimina de la sangre casi en su totalidad por
filtración glomerular y secreción tubular (Wei, et al., 2001).

3. Estudios recientes sobre sistemas de control biológico

R/ El control biológico se definió en 1980 en un seminario, patrocinado conjuntamente


por la Comunidad Económica Europea (CEE), el National Institute for Occupational Safety
and Health, NIOSH y la Occupational Safety and Health Association, OSHA (Berlín,
Yodaiken y Henman 1984) y celebrado en Luxemburgo, como la “determinación y
evaluación de los agentes o de sus metabolitos presentes en tejidos, secreciones,
excretas, aire espirado o cualquier combinación de los mismos con objeto de evaluar la
exposición y el riesgo para la salud en comparación con una referencia adecuada”. De tal
forma el control biológico es una de las tres herramientas importantes para la prevención
de enfermedades debidas a agentes tóxicos en el medio ambiente general o en el medio
ambiente de trabajo, siendo las otras dos el control ambiental y la vigilancia de la salud
(Foá & Alessio, 2008).

Zuber et al., (1997) plantean que el tratamiento biológico de gases es una nueva
tecnología que utiliza una mezcla de microorganismos para degradar los compuestos
químicos en estado gaseoso. Edwards et al., (2002) y Blenkle et al., (2002), afirman que los
tratamientos biológicos presentan una ventaja de degradar completamente los
contaminantes por medio de la temperatura y presión normales, por lo que hace una
tecnología eficiente cuando se compara con los tratamientos tradicionales de gases
contaminantes. Es un método más económico y efectivo, frente a las tecnologías
convencionales de tratamiento.

La implementación y uso a escala industrial del tratamiento biológico está creciendo en


forma exponencial, debido a la gran necesidad de conservar y ahorrar energía. Por tal
razón, hoy en día, se está planteando, el estudio detallado de los aspectos energéticos.
Aunque todas estas técnicas se basan en el mismo principio de funcionamiento,
adsorción/absorción en la película de microorganismos y posterior degradación a CO2 y
H2O, ellas difieren en sus diseños, control de parámetros, flexibilidad de operación y en
algunas características funcionales (Edwards et al., 2002).

Uno de los ejemplos de seria los siguientes:

 Biofiltros de lecho fijo : El método biológico de la biofiltración se basa en la


limentación de aire contaminado a un sistema de fase sólida en donde la biomasa
está inmovilizada en un soporte orgánico o inorgánico y la fase móvil corresponde
a un gas. Este sistema requiere de un preacondicionamiento, consistente en la
humidificación del gas a tratar, lo que proporcionará la humedad necesaria para la
actividad biológica dentro del biorreactor (Vergara et al., 2002).

 Biofiltros de lecho escurrido: Este sistema consiste en un biorreactor en cuyo


interior existe un soporte sintético en donde se desarrolla la biopelícula que será
alimentada continuamente, por el tope de la columna, con un medio líquido que
proporcionará a los microorganismos los nutrientes faltantes para su desarrollo.
Por otro lado, el gas contaminante se alimentará en contracorriente a través de la
columna. Cuando los contaminantes entren en contacto con los microorganismos,
estos los absorberán para su degradación (Vergara et al., 2002).

 Un sistema de tratamiento biológico tipo Airlift, consiste básicamente en una


columna en cuyo interior se encuentra una fase líquida móvil que contiene al lecho
filtrante en suspensión y una fase continua de reacción de gas o líquido. los
biorreactores del tipo Airlift son extensamente utilizados para el tratamiento de
agua; sin embargo, su aplicación al tratamiento de gases ha sido escasamente
desarrollada. Originalmente los biorreactores Airlift se desarrollaron para el
postratamiento de aguas industriales tratadas anaeróbicamente, existiendo
instalaciones a nivel industrial en funcionamiento (Heijnen et al., 2001).

 Sistema de control biológico (conservación biológica) contra portadores de


bacterias en las hortalizas frescas, para el sector de recién cortadas. Este
descubrimiento se realizo en el Instituto de Microbiología Sacro Cuore-Universidad
de Piacenza (Italia). EL cual consiste en el uso de LAB (bacterias del ácido láctico),
establece la exclusión durante el lavado de verduras y, antes de ser empacadas en
sobres o bandejas, el uso de sustancias químicas y otras que llevan a cabo un
efecto bactericida; al mismo tiempo, se efectúa una acción de protección para
evitar la proliferación de bacterias y se amplía la vida útil del producto (Zaniboni,
2012).

 Otro tipo de sistema utilizado hoy en día es utilizar Nucleopoliedrovirus (NPV) que
pertenecen a las familias de entomovirus más estudiada es la Baculoviridae a la
cual pertenece. Estos se caracterizan por presentar cuerpos de inclusión (CI) que
los protegen contra algunos factores ambientales y por afectar sólo a
invertebrados, especialmente insectos. Adicionalmente, no representan riesgos
para otros organismos incluyendo el hombre, siendo por lo tanto adecuados para
ser utilizados como agentes de control biológico. En Colombia el centro de
biotenologia y bioindustria (CBB) de CORPOICA producen un plaguicida a base de
un granulovirus de Phthorimaea operculella que sirve como protectoe de la semilla
de papap bajo dondiciones de almacenamiento, este producto alcanza una
mortalidad de larvas superiores al 90% bajo condiciones de laboratorio (Gomez,
Guevara, Barrera, Cotes, Villamizar, 2010).

4. AVERIGUAR SOBRE LA GLUCOSA DE LA SANGRE, MAL DE PARKINSON,


NANOTECNOLOGÍA Y CÉLULAS MADRE.

R/ Glucosa de la sangre: La glucosa es el principal monosacáridos en la naturaleza que


proporciona energía a las células de muchos organismos, como son las levaduras hasta
organismos más complejos como los seres humanos. El transporte de la glucosa a
través de la membrana celular se lleva a cabo por dos proteínas de membrana: los
transportadores de glucosa acoplados a sodio (SGLT) y las proteínas facilitadoras del
transporte de glucosa (GLUT). Las primeras las encontramos en los epitelios teniendo
como función la absorción y reabsorción de nutrientes, dándose en el epitelio del
intestino delgado y tubular ranal. A diferencia de los GLUT se expresa en todas las
células del organismo y se pueden mover la glucosa de un comportamiento a otro
(Castrejón, et al., 2007). Estas características funcionales las podemos observar en la
siguiente imagen:
En el ser humano la glucosa y la galactosa son absorbidas en el duodeno y en la parte
superior del yeyuno en el intestino delgado, donde entran por las células epiteliales
intestinales en contra del gradiente de concentración por medio de un mecanismo de
contransporte dependiente de sodio (Na+). Este ion proporciona la fuerza motriz para que
se genere el movimiento de la glucosa al interior de la célula. El gradiente químico de Na+
que impulsa la glucosa es mantenida por acción de la bomba de sodio (Na+) y potasio
(Ka+), llamada ATPasas ya que utilizan trisfosfato de adenosina (ATP) como fuente de
energía (Castrejón, et al., 2007).
Los SGLT presentan una familia de genes que codifican estos transportadores los cuales
son llamados acareadores de soluto del grupo 5A (SLC5A, por sus siglas en inglés: SL de
"solute" y C de "carrier"). Esta familia incluye a los transportadores de glucosa intestinal y
renal SGLT1 (SLC5A1) y SGLT2 (SLC5A2), al SGLT3 (SLC5A4), el cual se considera un sensor
de la glucosa en tejidos como el muscular. Esta familia incluye también a los
transportadores de inositol SGLT4 (SLC5A3), de yodo SGLT5 (SLC5A5) y de multivitaminas
SGLT6 (SLC5A6) (fig.7) (Castrejón, et al., 2007).

Figura 7. Estructura de los sistemas de transporte SGLT.

A diferencia los GLUT son las proteínas encargadas de transportar los monosacáridos al
interior de todas las células del organismo. Se han podido identificar 14 de ellas (GLUT1-
GLUT14) dividas en tres subfamilias de acuerdo a sus similitudes en su secuencia y
características. La familia de genes que codifican llevan como nombre acarreadores del
soluto del grupo 2A (SLC2A), estos transportadores son glicoproteínas cuya masa
molecular fluctúa entre 45 y 55 kDa, el análisis de hidropatía predice una estructura con
12 cruces transmembranales conectados entre sí por asas hidrofílicas; la primera asa es
externa y en algunos GLUT presenta un sitio de glicosilación (fig.8) (Castrejón et al., 2007).
Figura 8. Estructura hipotética de GLUT.

A la glucosa también se la conoce como “azúcar sanguínea”, porque el 95% de los hidratos
de carbonos consumidos son transformados por el hígado en glucosa. Los carbohidratos
son la principal fuente de calorías en las mayorías de las personas. En una dieta normal los
principales almidones consumidos son: la amilopectina, la amilosa y el glucogeno, que
varía según las culturas y los individuos por ser de origen animal. Así también en los
bisacaridos principales encontramos: sacarosa y lactosa y por último en los
monosacáridos: glucosa y fructosa (Lehninger y Mathews, 2010).

En el acto de la masticación, los hidratos de carbono se mezclan con la saliva, en la que se


encuentra una enzima denominada “Ptialina”, que es una   -amilasa  secretada por la glándula
parótida. Esta enzima hidroliza al almidón en maltosa, maltotriosa y dextrina límite  (porque es
incapaz de hidrolizar los enlaces ramificados a -1-6).(fig.9) Normalmente puede realizarse una muy
buena digestión de los hidratos de carbono en la boca sin embargo estos permanecen poco
tiempo antes de ser deglutidos y llevados al estómago (Lehninger y Mathews, 2010).

Figura 9. Proceso de digestión


La Ptialina es inactivada por el pH ácido del estómago no obstante antes que esto suceda
30% a 40% de los almidones han sido degradados. El resto de los almidones y las
moléculas de maltosa, maltotriosa y dextrina límite , son degradadas por otras a -
amilasa secretas por el páncreas llamada “Amilasa pancreática”, que es más potente que
la salival. Aproximadamente entre los 10 a 20 minutos después del vaciamiento gástrico la
totalidad de los almidones han sido digeridos a pequeños polímeros de glucosa y maltosa
(Lehninger y Mathews, 2010).

El último paso de la digestión de estos disacáridos se lleva a cabo por enzimas ubicadas en
la membrana de los enterocitos. Las principales son: lactasa, maltasa, sacarasa y a -
dextrinasa o isomaltasa. De esta manera el producto final de los carbohidratos después de
la digestión son todos monosacáridos que son absorbidos por las células intestinales y
transportados a la sangre (Lehninger y Mathews, 2010).

El duodeno y el yeyuno proximal poseen la mayor capacidad para absorber los azúcares.
La glucosa y galactosa compiten entre sí por un mecanismo de co-transporte
acompañados con Na+, denominado SGTL1, mientras que la fructosa tiene un
transportados específico el GLUT5, que es un miembro de la familia de transportadores
GLUT. Una vez dentro de las células estos tres monosacáridos son transportados al
intestino por un transportador común el GLUT2, ubicado en la membrana plasmática
basal, luego difunden a los capilares sanguíneos. (Fig. 10) (Lehninger y Mathews, 2010).

Figura 10. Absorción y transporte a la sangre

Toda la sangre que contiene los nutrientes absorbidos en el tubo digestivo drena en una
gran vena denominada “vena porta” que los transporta al hígado. Gran parte de la
fructosa y casi toda la galactosa son convertidas rápidamente en glucosa por el hígado, de
este modo la glucosa es el principal hidrato de carbono en la sangre (Lehninger y
Mathews, 2010).
ENFERMEDAD DE PARKINSON (EP): Las enfermedades neurodegenerativas se
caracterizan por la pérdida progresiva e irreversible de neuronas en regiones específicas
del cerebro. James Parkinson propuso por primera vez en 1917 una enfermedad
denominada “Parálisis agitante o parálisis temblorosa” la cual ahora lleva su nombre. Los
síntomas que presta esta enfermedad son la bradicinesia que se observa como lentitud y
escasez de movimientos, rigidez muscular del tronco, temblor en reposo, trastornos del
equilibrio postural (Limón, Patricio, Mendieta, Venegas, Aguilera y Martínez, 2008).

La EP es la segunda enfermedad neurodegenerativa más común que afecta del 1 al 2% de


las personas mayores de 65 años, siendo el sexo masculino el que presenta mayor
prevalencia. Los estudios sobre la mortalidad de esta enfermedad están limitados por la
falta de precisión que se presenta en los certificados de difusión y por la falta de un
diagnostico adecuado. La mortalidad se concentra fundamentalmente en los grupos
etarios de 70-79 y > 80 años (Minsal, 2010).

A nivel etiológico la EP es principalmente idiopática (99.0%), donde se asocia a factores de


riesgo a la exposición a contaminantes ambientales como son los insecticidas o metales
pesado. Solo el 1% es de tipo genético, donde se describen dos mutaciones: la primera se
localiza en el gen de la proteína α-sinucleína en el cromosoma 4 y la segunda en el gen
parkina, ubicado en el cromosoma 6 que es en personas con parkinsonismo juvenil
(Lomón, et al., 2008).

Igual existe otro tipo de Parkinson que va relacionado con la demencia, es reconocido por
diversos investigadores, casi el 20-60% la demencia está sujeta a la enfermedad de
Parkinson o a una enfermedad más grave o avanzada (Minsal, 2010).

La lesión fundamental de la EP recae en la parte compacta de la sustancia negra (SN), que


forma parte de los ganglios basales (GB). Esta enfermedad genera una desaparición
progresiva de las neuronas dopaminérgicas del sistema nigroestriado, con
despigmentación y consecuente gliosis. Igual forma existe una degeneración axonal de las
células nígricas en el estriado donde hay una disminución de la Dopamina (DA) y
alteración en la transmisión dopaminérgica. Los GB tiene como función el mantenimiento
de la postura del cuerpo y de las extremidades, movimientos automáticos entre otros
(Minsal, 2010).

A nivel de tratamiento los fármacos anticolinérgicos son empleados para disminuir el


desequilibrio entre la DA y la acetilcolina, de igual forma existen otros inhibidores de las
enzimas que se encargan del metabolismo de la Da como monoaminoxidasa. B (MAO-B) y
la catecol-orto-metiltransferasa (COMT), teniendo cmo función el incremento de DA
facilitando la conductas motoras (Lomón, et al., 2008).
EL principal fármaco que se utiliza para el control de EP es la Levodopa ya que mejora la
rigidez, menor temblor, hipomimia entre otros. Este medicamento es precursor de la
dopamina que es absorbida en el tracto gastrointestinal y atraviesa la barrera
hematoencefálica. Al ser administrada por vía oral es metabolizada a nivel periférico por
la enzima decarboxilasa que proviene de la Levodopa y COMT, esto genera efectos
secundarios al producir otro tipo de metabólitos, por tal razón a este fármaco se le añade
un inhibidor de la decarboxilasa (carbidopa o benserazida) los cuales no atraviesan la
barrera hematoencefálica y actúan esencialmente sobre la Lovodopa extracerebral
(Minsal, 2010).

Existen diferentes manifestaciones clinicas que sufren las personas que presentan la EP
como son los trastornos de la respuesta motora, la cual se presenta un 50% a los
pacientes que consumen Lovodopa por un periodo de 5 años y 80% los que consumen
este fármaco por más de una década. Estos presentan una serie de características
presentando diferentes respuesta a través del tiempo como son:

 Respuesta de larga duración: Esta repuesta consiste en el consumo de Lovodopa 3


veces al día lo cual genera una movilidad adecuada durante el dia y la noche en
los pacientes. El efecto se observa en un periodo de 3-10 días cuando el
tratamiento es interrumpido (fig. 11) (Minsal, 2010).

Figura 11. Respuesta de larga duración

 Respuesta de mediana duración: A medida que evoluciona la enfermedad el


periodo de beneficio se acorta, siendo solo estable durante el día, debido a que la
duración del medicamento es de horas, retornando los síntomas parkinsonianos.
Este tipo de respuesta aparece a cabo de 1 o 2 años del consumo de lovodopa
(fig.12) (Minsal, 2010).
Figura 12. Respuesta de mediana duración

 Respuesta de corta duración: Consiste en la duración del fármaco Lovodopa que


es de 3 horas, dando aparición en el paciente de ciclos de alteración motoras y
efectos de la reaparición del parkinsonismo. Solo se observa estas manifestaciones
en horas de la tarde (fig.13) (Minsal, 2010).

Figura 13. Respuesta de corta duración

Otras complicaciones motoras relacionadas con el consumo de Lovodopa que es inducir


movimientos involuntarios anormales (discinesia). En los pacientes estos movimientos se
manifiestan en la cara y cuello, generados por situaciones de estrés o durante ejecución
de movimientos finos. Esta discinesia se puede presentar como:

 Discinesia: "on": Los movimientos involuntarios (corea, movimientos distónicos,


mioclonías), coinciden con el período de mayor movilidad, porque suelen aparecer
cuando la acción de la levodopa es máxima, coincidiendo habitualmente con los
niveles del medicamento en el plasma más elevados o pueden estar presentes
durante todo el período de beneficio motor, sin cambios en su intensidad (fig. 14)
(Minsal, 2010).
Figura 14. Discinesia: "on

 Disquinesias bifásicas: Son los movimientos involuntarios, que aparecen


inmediatamente al inicio y final del beneficio motor, inducido por una dosis aislada
de levodopa. La presentación bifásica no necesariamente ocurre en todos los
pacientes y pueden estar solamente presentes en una fase del ciclo. Estas
disquinesias aparecen preferentemente en las extremidades inferiores,
particularmente en el lado más afectado por la enfermedad y en la mayoría de los
casos suelen presentarse como movimientos lentos repetitivos alternantes (fig.15)
(Minsal, 2010).

Figura 15. Disquinesias bifásicas

De igual forma existen tratamientos que no son farmacológicos como es el caso de la


rehabilitación Kinésica, esta técnica permite disminuir la capacidad motora, mantener las
funciones cardiorrespiratorias, entre otras. El objetivo de este método es que el paciente
sea capaz de hacer su actividades básicas de la vida diaria (ABVD) y actividades
instrumentales de la vida diaria (AIVD), retarda la dependencia (Minsal, 2010). Esta
rehabilitación se pude encontrar las siguientes fases:
Fase Inicial: Luego del diagnóstico el EP deberá ser remitido al kinesiólogo para su
rehabilitación en la atención primaria, la cual pondrá énfasis en:
- Prevenir y tratar la inestabilidad postural.
- Evaluar e identificar tempranamente los problemas relacionados con alteraciones del
movimiento.
- Fomentar la participación del EP, en programas diseñados para mejorar la condición
física general. (Cardiovascular, músculo esquelética y neuromuscular).
- Prevenir las deficiencias posturales, deficiencias en marcha y traslado.
- Tratar la debilidad muscular, la rigidez articular, la disfunción oro facial y respiratoria.
- Utilizar estrategias de movimientos a lo largo de la enfermedad.
- Educar a los pacientes, familiares y cuidadores.
- Evaluar la eficacia farmacológica en el rendimiento motor.
- Se recomiendan 24 sesiones al año.

Fase de Mantenimiento: Se intervendrá específicamente en:


- Evaluación Funcional para el EP.
- Tratar el deterioro músculo esquelético.
- Reeducar marcha, caídas y traslados.
- Evaluar el medio en donde se desenvuelve el paciente: entrenamiento en el hogar y
comunidad.
- Aplicar estrategias funcionales.
- Dar y enseñar ayudas técnicas.
- Educar a familiares y cuidadores para favorecer el movimiento y buen manejo del
paciente.
- Se recomiendan 24 sesiones por año.

Otra es la Rehabilitación Fonoaudiológica que depende de la fase de la enfermedad en el


que se encuentre el paciente:

Fase Inicial: Objetivo: Prevención


Procedimientos: Evaluación inicial, tratamiento, educación y reevaluación.
Frecuencia: Se recomiendan 5 sesiones por año

Fase Avanzada: Objetivo: Rehabilitación


Procedimientos: Evaluación inicial, tratamiento, reevaluación.
Frecuencia: Se recomiendan 10 sesiones por año.

Fase Postración: Objetivo: Rehabilitación


Procedimientos: Evaluación inicial, tratamiento, reevaluación.
Frecuencia: Se recomiendan 10 sesiones por año.
NANOTECNOLOGIA

La nanotecnología se define como la creación de materiales, dispositivos y sistemas útiles


por medio de la manipulación de la materia a una escala minúscula. Un nanómetro es una
milmillonésima parte de un metro. La nanotecnología se aplica a casi toda área
imaginable, inclusive a la electrónica, magnética, óptica, tecnología informática, creación
de materiales y biomedicina. Debido a su pequeño tamaño, los dispositivos a escala nano
pueden interactuar fácilmente con biomoléculas localizadas tanto en la superficie como
en el interior de las células. Al obtener acceso a tantas áreas del cuerpo, tienen la
posibilidad de detectar enfermedades y de administrar tratamiento en formas que fueron
inimaginables en el pasado (National Cancer Institute, 2010).

El desarrollo y la difusión de las nanotecnologías a generado un impacto en las técnicas y


en los procesos de producción industrial, y en consecuencia en el desarrollo económico y
social. La nanotecnologías son consideradas por los gobiernos, centro de investigación
públicos, privados y militares como una área clave en la convergencia tecnológica en curso
para la informática, telecomunicaciones, ciencias del cerebro o nano-cogno-bio-info. Este
alcance que han tenido se generado una competencia a nivel industrial, militar y espacial
(Guzman y Toledo, 2008).

A partir de todo esto la nanotecnología se ha dividido en tres grandes campos de


investigación y desarrollo como son:

 Nanotecnología seca: Se forma a partir de la física de superficies y la fisicoquímica


de materiales, es empleada en la construcción de estructuras usando como
materia prima de átomos de carbono, silicio, óxidos metálicos y materiales
inorgánicos. Estos materiales presentan electrones altamente reactivos que se
aprovechan sobre todo en ambientes húmedos, ya que tienen la capacidad de
fabricar ensambles y autoensambles in vivo y ex vivo. Esta tecnología la
encontramos en los nanotubos, que se aplica en la nanoelectrónica y
nanomedicina entre otros (Márquez, 2008).

 Nanotecnología húmeda: Su desarrollo se enfoca en la investigación biológica o


viviente que son gobernados a escala manométrica, como es el caso del material
genético, enzimas, hormonas, proteínas entre otros. Esto ha generado la
producción de nanomáquinas basándose en proteínas como material genético
para formar enzimas, lo que son maquinas capaces de deshacer moléculas.
Encontramos disciplinas como nanobiología, nanobiotecnología entre otras
(Márquez, 2008).
 Nanotecnología computacional: En ella encontramos la computación cuántica y la
computación orgánica o molecular (ADN). También abarca los campos de
simulación y modelado de nanoestructuras complejas, como son nanocircuitos y
nanotransistores, electrónica flexible y espintrónica. Combina la nanotecnología
seca y húmeda ( Márquez, 2008).

A partir de ello los avances de la nanotecnología en especial los ensambladores o


autoensambladores, la inteligencia superficial y la vida artificial se resume en dos
conceptos: Sistemas artificiales nanotecnológicos (SAN) y los Sistemas artificiales
Nanotecnológicos furtivos (SANF). Estos conceptos evolucionan rápidamente debido al
progreso que se observa en procesos moleculares, físicos, químicos, biotecnológicos,
informática, computación entre otros, que generan diseños y elementos a escala meso,
micro, nano (Márquez, 2008).

Por tal razón esto ha generado un sistema natural memétrico, es decir, que presentara
cambios de termodinámica, información de la vida que se puede replicar y evolucionar
sin la intervención del ser humano, lo que lleva como nombre vida gris. Por tal razón la
vida artificial puede analizarse dentro de la termodinámica fuera del equilibrio de la
siguiente forma:

 Ley cero de la termodinámica: Consiste en dos sistemas en equilibrio con un


tercer sistema en equilibrio entre sí. Esta ley es fundamental ya que el flujo de
información presente una interacción y evolución y se mantenga. Por tal razón la
energía invertida en los procesos químicos moleculares de los organismos presenta
un equilibrio suficiente para mantener procesos como la autocatálisis, autopoiesis,
autoorganización centrándose en la sinergética. A partir de esto se obtienen los
primeros sistemas in vitro (Márquez, 2008).

 Primera ley de la termodinámica: Ley que conserva la energía, la cual se aplica a


todo proceso de la naturaleza que parte de un equilibrio y termina en otro. En el
caso SAN, estos presentan energía cinética de movimiento ya se ha de tipo
atómico o molecular. LA diferencia con un ser vivo radica en que el SAN quiere
lograr que la transferencia de interacción de energía sea continuo dentro del
sistema como ocurre en los sistemas naturales (Márquez, 2008).

 Segunda ley de la termodinámica: Esta ley es considerada termodinámica fuera


de equilibrio, ya que obliga a los sistemas, a decaer, envejecer y morir. Ya que el
desarme y destrucción de los sistemas lleva a la liberación de información. La
información fluye entre los sistemas vivos a diferentes escalas, un ejemplo es a
escala menores (atómica y molecular) que fluye y se distribúyelo que indica que la
materia comparte información y un ejemplo claro son los sistemas
nanotecnológicos naturales (Márquez, 2008).
La vida gris podemos definirla como los sistemas artificiales nanotecnológicos que podrían
eliminar la vida induciéndola a una entropía irreversible, a un sistema más complejo
haciendo menos atractivos que cualquier especie microscópica o menoscópica conocida.
El fin de SAN y SANF es poder crear un sistemas más complejos artificiales
nanotecnológicos (SCAN), que serian totalmente autónomos y que interacciones con el
medio, crenado nueva vida o sistemas vivientes híbridos (Márquez, 2008).

Un ejemplo claro es al uso contra enfermedades como el Cáncer que por iniciativas del
Instituto Nacional del Cáncer (NCI) han realizado investigación en proteómica y
bioinformática facilitarán que investigadores identifiquen marcadores de susceptibilidad
de cáncer y lesiones precancerosas. La idea es implementar la nanotecnología aplicandola
para crear dispositivos capaces de señalar cuando dichos marcadores aparecen en el
cuerpo y administrar substancias para invertir cambios premalignos o destruir aquellas
células que podrían convertirse en cáncer (National Cancer Institute, 2010).

De igual forma la terapia por medio de nanotecnología es idela debido a su capacidad


multifuncional ya que los nanodispositivos pueden contener tanto substancias dirigidas
como cargas terapéuticas para producir altas concentraciones locales de un fármaco
anticanceroso determinado, especialmente en tumores profundos del cuerpo a los que es
difícil tener acceso. Los nanodispositivos ofrecen también la oportunidad de crear nuevas
modalidades de terapia y combinar una substancia de diagnóstico o de estudio de
imágenes con un fármaco, e incluso una forma de indicar que el fármaco actuó en su
diana en el mismo paquete. Es posible que la nanoterapia “inteligente” pueda facilitar a
los investigadores clínicos la habilidad para calcular cuánto tiempo toma la liberación de
un fármaco anticanceroso o administrar múltiples fármacos en secuencia a intervalos
regulados o a distintas aéreas del cuerpo (fig.16) (National Cancer Institute, 2010).

Figura 16. Nanodispositivos


Pero igual encontramos un punto de vista importante sobre este tema que es la
Nanobioética que se define como el Bios del Ethos a pequeñas escalas (Ética de la vida a
nanoescala). Es la ciencia que protege la vida no sólo desde el aspecto celular sino
también atómico y molecular, sumado a que es pieza fundamental para analizar la
emergencia de los sistemas artificiales, de su interacción con el medio ambiente y de su
evolución en el espacio tiempo. De igual forma este concepto se desarrolla en al ámbito
de la ética de la sociedad civil, llamada ética cívica, surge por la diversidad de opinión y
creencias. En si la nanobioética evalua los riesgos relacionados directamente con la
interferencia con la naturaleza debido a que el mal uso genera impactos negativos en la
salud y el medio ambiente (Márquez, 2008).

Podemos concluir que la nanotecnología es una herramienta poderosa en el mundo de la


ciencia y las tecnologías actuales y futuras, ya que impondrá nuevos estilos y mejorar la
calidad de vida del ser humano, teniendo como meta logra que la sociedad entienda la
importancia de comprender los sistemas de vida artificial ya que generara nuevas formas
de ver la vida.

CELULAS MADRE

Una célula madre es un tipo especial de célula que posee la capacidad de replicarse y de
dar lugar a diversos tipos de células especializadas. Casi todas las células del organismo
como las del corazón o del a piel son células especializadas en desempeñar una
determinada función. Una célula madre no está especializa hasta que recibe una señal que
hace que se especialice. Lo que las hace única es la capacidad de proliferar dando lugar a
células idénticas, unido a la capacidad de especialización (Prosper, 2002).

En los últimos años el término célula madre ha tomado gran importancia desde que la
terapia génica y la clonación son temas de discusión en la literatura mundial. A partir de su
comportamiento se ha generado una clasificación en:

Según al tipo de tejido que originan

En este grupo podemos encontrar cuatro tipos de células madre las que son totipotentes,
pluripotentes, multipotentes y unipotentes. Las totipotentes son las que generar un
embrión completo. Las pluripotentes forman las tres capas germinales embrionarias:
mesodermo, endodermo y ectodermo. Estas presenta una única célula que debe ser capaz
de diferenciarse a progenitoras especializados procedentes de cualquier campo
embrionario, también demostrar su funcionalidad a nivel in vitro o e in vivo. Las células
multipotenciales son las que originan a precursores relacionados con una de las tres capas
embrionarias como por ejemplo las células del tejido pulmonar o pancreático. Y por
ultimo encontramos a las células unipotentes que solo generan células hijas que se
diferencian solo a lo largo de una línea celular y son las responsables de la auto
renovación tisular (Rodríguez, 2005).
Las células madre se encuentran en tejidos adultos y en los embriones,
independientemente de su estadio. Por ello se habla de células madre del adulto y células
madre embrionarias (Prosper, 2002). Las células madres embrionarias se obtienen de las
primeras etapas de formación del embrión cuando el óvulo fecundado es una esfera
compacta, por tal razón éstas son entonces precursores totipotenciales con capacidad de
proliferar indefinidamente in vitro. Un ejemplo de ellas son las células derivadas de la
masa celular interna del embrión en estadio de blastocisto (7-14 días) (Soler, Gigoux,
Tagle, Von y Fadic, 2007).

Las células madre embrionarias (derivadas del blastocisto) y las células embrionarias
germinales (derivadas postimplantación del blastocisto) son similares en muchos
aspectos; ambos tipos de células son capaces de replicarse y dividirse en cultivos por
largos períodos de tiempo sin mostrar alteraciones cromosómicas, además expresan una
serie de marcadores característicos de progenitores totipotenciales que facilitan su
identificación (Rodríguez, 2005).

Las células madres adultas, además de cumplir con ser clonogénicas y ser capaces de
división asimétrica, son capaces de tomar localización, forma y función adecuadas para
diferentes ambientes celulares (Soler et al., 2007). Las células madre adultas que se
pueden encontrar en la mayoría de los tejidos de un individuo totalmente desarrollado
como la médula ósea, el sistema neuronal, el sistema gastrointestinal, el músculo
esquelético, el músculo cardiaco, el hígado, el páncreas y el pulmón (Rodríguez, 2005).

Estas células son también capaces de diferenciarse funcionalmente a células


especializadas de la capas embrionaria, incluso un grupo de estas células han presentado
una pluripotencialidad procedentes de la medula ósea o el sistema nervioso central. Esta
habilidad es una capacidad que tienen de alterar drásticamente acorde al fenotipo en
respuesta a los microcambios donde se desarrolla esto recibe el nombre de fenómeno de
plasticidad (fig.17) (Rodríguez, 2005).

Figura 17. Plasticidad de las células madre


Existen cuatro tipos de mecanismo en los cuales se explica cómo las células madres llegan
a diferenciarse de un tejido diferente al original ya que esto es dado a la respuesta a los
cambios que hay en el microambiente como son:

 El primer modelo es la diferenciación celular en el que una célula progenitora


restringida hacia un solo linaje da origen a células de su misma estirpe (fig.18)

 El segundo modelo es la diferenciación a células progenitoras más activos en el


ciclo celular que dan a células de linajes diferentes como es el caso de las células
hematopoyética (fig.19).

 En el tercer modelo es trans-diferenciación, las células madre de un tejido


particular bajo condiciones de un microambiente diferente al original, adquieren la
capacidad de generar células de muy diversos linajes (fig.20).

 El último modelo hace referencia a la capacidad que poseen las células maduras de
de-diferenciarse y re-diferenciarse a células del mismo tejido que le dio origen o a
un tejido diferente (fig.21).

Figura 18. Modelo clásico de diferenciación celular


Figura 19. Segundo modelo es la diferenciación a células progenitoras

Figura 20. Modelo de trans-diferenciación

Figura 21. Modelo de diferenciación y re-diferenciación


Las células mas estudiadas hoy en día son las células que provienen de la medula ósea
donde se han descrito diferentes tipos de células madre en la médula ósea:
Hematopoyéticas (HSC), Mesenquimales (MSC), las llamadas “Side Population Cells” (SP) y
recientemente el grupo de la Dra. Verfaille ha publicado un artículo en el que se
demuestra la existencia de una población celular llamada MAPC (Multipotent Adult
Progenitor Cell) (Prosper, 2002).

 CELULAS MADRE HEMATOPOYÉTICAS:

Las HSC han sido identificadas tanto in vitro como in vivo por varios laboratorios. Algunos
trabajos han puesto de manifiesto que las HSC además de su potencial hematopoyético
pueden contribuir a la angiogénesis y a las vasculogénesis. Recientemente se han
publicado trabajos en los que las HSC han sido diferenciadas a músculo cardíaco. Se han
demostrado en un modelo de infarto de miocardio murino que una inyección de células
mononucleadas de la medula ósea Lin- y c-kit + (fenotipo de marcadores de superficie
típico de HSC) en el corazón dañado, resultó en la colonización de estas células en más de
la mitad del área infartada. Estas posibles HSC adquirieron un fenotipo característico de
células de miocardio y contribuyeron a la mejora y supervivencia de los animales. Aunque
la fracción de las células mononucleadas de la medula ósea Lin - y c-kit + es muy rica en
HSC, algunos grupos afirman que estos resultados son insuficientes para asegurar que las
células responsables de la regeneración cardíaca son HSC (Prosper, 2002).

 CELULAS MADRE MESENQUIMALES

La médula ósea también contiene células madre mesenquimales o MSC. En los últimos
años se han ido descrito distintos marcadores de superfície que han sido utilizados para
identificar y aislar estas MSC, tales como SH2, SH3, CD29, CD44, CD71, CD90 y CD106. Las
MSC no expresan antígenos de superficie típicos de las HSC, como CD34, CD45 o CD14.
Experimentos recientes han demostrado in vitro que las MSC son capaces de diferenciarse
a tejidos mesodérmicos funcionales, como osteoblastos, condroblastos, adipocitos y
mioblastos esqueléticos (Prosper, 2002).

 SIDE POPULATION CELLS

Las llamadas “side population cells (SP)” han sido aisladas de la médula ósea usando
técnicas de citometría de flujo (FACS). Se sabe que las SP son capaces de diferenciar a HSC
en humanos, roedores y otras especies. Además algunos estudios describen que las SP
podrían dar lugar a otros tipos de células especializadas e integrarse en distintos tejidos
in vivo. Por ejemplo, el grupo de Jackson et al. demostró en 1999 que las SP podían
diferenciar a células con características de músculo cardíaco y endotelio en un modelo
murino de infarto de miocardio (Prosper, 2002).
 MULTIPOTENT ADUL STEM CELLS (MAPC)

Esta población celular de la medula ósea a generado gran impacto por su descubrimiento
ya que se han descrito como auténticas células pluripotenciales con una capacidad
diferenciadora muy similar a las células madre embrionarias. Las MAPC han sido aisladas
tanto de médula humana como murina. Estas MAPC son capaces de proliferar in vitro
más de 120 divisiones celulares sin un aparente envejecimiento ya que mantienen unos
niveles altos de telomerasa durante todo el tiempo de cultivo. Se ha descrito que las
MAPC no expresan CD34, CD44, MHC I, MHC II, CD45 y c-kit; expresan niveles bajos de Flk-
1, Sca-1 y Thy-1, y altos de CD13, SSEA-1 (ratón/rata) y SSEA-4 (humano). Al igual que las
células madre embrionarias, en las MAPC se detecta la activación de los factor de
transcripción Oct-4 y Rex-1, factores que son necesarios para mantener la célula en un
estado proliferativo e indiferenciado. Además se han realizado experimentos de clonaje
que prueban que es una única célula la que es capaz de diferenciarse a tejidos
procedentes de cualquiera de las tres capas embrionarias (endodermo, mesodermo o
ectodermo) (Prosper, 2002).

Otro tipo de células que podemos observar son las células madres neuronales ya que se
forman a partir de las capas del neuroectodermo que rodea los ventrículos, a partir de
esta zona migran hacia la corteza diferenciándose a neuronas o células de la glía y
formando los circuitos neuronales que existen en el adulto, según las diferentes señales
de destinación que reciben(Soler et al., 2007).

Por medio de los estudios realizados a lo largo de los últimos años se ha conseguido
cambiar la idea que se tiene de las células madre, ya que estas pueden ser
pluripotenciales, el nuevo reto que tienen estas células es buscar una implicación en los
campos d la biología, la parte clínica y claro esta tener en cuenta las consideración éticas.
BIBLIOGRAFIA

 Ogata, K. Ingeneria del control moderno. Pearson educación;Mexico, 1998.


 Cosco.J. Controles eléctricos y automatización. Universidad Nacional de Ingneria, Lima,
Peru, 2008.
 Mendiburu,A. Sistemas de Control capitulo 1. Automatización medioambiental. 2007.
 Ramírez, J, Rosero, E. Sistemas de control. Escuela de ingeniera Eléctrica y Electrónica,
Santiago de Cali, Colombia, 2007.
 Ariza, A. Introduccion a la Ingeneria Biomedica. UNIVERSIDAD PONTIFICIA BOLIVARIANA.
SECCIONAL BUCARAMANGA 2009.
 Vallverdú, M. Modelo y Simulación del Sistema de control cardiovascular en pacientes con
lesiones coronarias. Universidad Politécnica Catalunya. 1993.
 Kaliman, O. Sistema cardiovascular. Cátedra de Fisiología Humana. Carrera de Enfermería.
UNNE. 2005.
 Mompín,J. Introducción a la Bioingeneria. Marcombo S.A. 1 edición, 1988.
 Addiego, M. Modelo Viscoelástico de la Mecánica Respiratoria. XV congresode Ingeneria
Biomedica. Universidad de la Republica Oriental de Uruguay. 2007.
 Díaz,H, Vargas,L. Funcion Renal. Pontificia Universidad Javeriana.2006.
 Wei k, Le E, Bin JP, Coggins M, Thorpe J, Kaul S. Quiantification of renal blood flow with
contrast-enhanced ultrasound. J Am Coll Cardiol. 2001 mar 15:37 (4): 1135-40.
 Foá,V,Alessio,L. Control Biologico. Principios generales. 2008
 Adler, S; Robbers, B. and Loock, R. Biofiltration a Primer. EnvironmentalProtection. Abril,
2002.
 Blenkle, F. Smert, D. Biotransformation of Aromatics Hydrocarbons. Material for
distribution only to students. Biodegradation & Bioremediation. CE 320-01.2002.

 Edwards, Sarina; Schroeder, Chang Daniel and Morton Robert. Control of volatile organic
compound emissions using a compost biofilter. Biotechnology and Water Environtmental
Research. 1. 2. pp 316-321.

 Zuber, Laurent; Dunn, Irving and Deshusses, Marc. Comparative Escale-Up and Cost
Estimation Of a Biological Trikling Filter and a Three-Phase Airlift Bioreactor for the
Removal of Methylene Chloride from Polluted Air. Journal of the Air & Waste
Management Association 9ROXPH 1. 6HSWHPEHU 1997.pp 969-975.

 Vergara, A. O.; Alarc.n, N. A.; Aroca, G. E., y Encina, F. R.. Modelado y simulaci.n de un
biofiltro para el tratamiento de gases contaminados con compuestos sulfurados,
Informaci.n Tecnol.gica: 13(3), 2002. pp 17-24

 Heijnen, J.J., van Loosdrecht, M.C.M., Mulder, R. and Weltevrede , A. Large scale anaerobic
aerobic treatment of complex industrial wastewater using biofilm reactors. Wat. Sci.
Technol. 23. 2001. pp. 427-436.
 Zaniboni, R. Nuevo control biológico para vegetales recién cortados desarrollado por
empresa italiana. 2012. http://www.alfa-editores.com/web/index.php?
option=com_content&task=view&id=3485&Itemid=113

 Gómez , J; Guevara, E; Barrera, P; Cotes M; Villamizar, L. Aislamiento, Identificación y


Caracterización de Nucleopoliedrovirus Nativos de Spodoptera frugiperda en Colombia.
Revista Facultad Nacional de Agronomía - Medellín, vol. 63, núm. 2, 2010, pp. 5511-5520.

 Castrejón, V Carbó, R, Martínez, M. MECANISMOS MOLECULARES QUE INTERVIENEN EN


EL TRANSPORTE DE LA GLUCOSA. REB 26(2): 49-57, 2007.

 Lehninger, O; Mathews, R. Biosíntesis de glucosa: Precursores y reacciones. Regulación


conjunta con la glucolisis: ciclos fútiles. Ciclo de Cori. Biosíntesis de disacáridos.
Bioquímica-2010-11 (T 21)-1.

 Minsal, S. Guia clínica contra la Enfermedad de Parkinson. Ministerio de Salud, Chile, 2010.

 Limón, I; Patricio, A; Mendieta, L; Venegas, B; Aguilera, J; Martínez, I. Mal de Parkinson:


 Un fragmento no tóxico de la toxina tetánica: probable alternativa en la terapéutica de
esta enfermedad. 2008.

 National Cancer Institute. Instantánea de nanotecnología. 2010.

 Guzman, A; Toledo, A. LAS NANOTECNOLOGÍAS: UN PARADIGMA TECNOLOGICO


EMERGENTE. DINÁMICA Y ESPECIALIZACION DE LA INNOVACION EN LAS
NANOTECNOLOGÍAS. Primera revista digital en América Latina Especializada en tópicos de
comunicación. 2008.

 Márquez, j. Nanobioética, nanobiopolítica y nanotecnología. Salud Uninorte. Barranquilla


(Col.) 2008; 24 (1): 140-157.

 Rodriguez, V. CÉLULAS MADRE: CONCEPTOS GENERALES Y PERSPECTIVAS DE


INVESTIGACIÓN. PONTIFICIA UNIVERSIDAD JAVERIANA Vol. 10, No. 1, 5-14. 2005

 Prosper, F. Células Madre Adultas. Asociación Canaria Bioética. 2002

 Soler, B; Gigoux, JP; Tagle, P; Von, R; Fadic, R. Células madre: proyecciones de su uso en
Neurologia. Escuela de Medicina, Pontificia Universidad Católica de Chile. 2007

También podría gustarte