Está en la página 1de 283

NOTAS DE CLASE

BIOINGENIERÍA

Profesor:

Msc. Ing. Jaime Antonio Benítez Forero

1
CAPÍTULO 1

CONCEPTOS BÁSICOS DE LA
INSTRUMENTACIÓN BIOMÉDICA

Introducción

La electrónica es la rama científico-técnica que ha hecho las aportaciones más


espectaculares en la instrumentación biomédica en los últimos años. La aplicación de la
electrónica a las diversas facetas de las ciencias biológicas y médicas ha dado lugar a la
consolidación de una serie de disciplinas teóricas y tecnológicas que configuran el
campo de la Bioelectrónica. Dicho campo abarca un amplio espectro de disciplinas tales
como modelización de sistemas fisiológicos, estudio de señales bioeléctricas,
instrumentación biomédica, medios de diagnóstico, monitorización y terapia, sistemas de
ayuda funcional, diseño de prótesis electrónicas.

La definición de Bioingeniería parte del prefijo bio que significa vida. La Bioingeniería
puede subdividirse en diferentes áreas como la Bioelectrónica o biomecánica. Luego
puede observarse que la Bioelectrónica es la rama de la ingeniería electrónica que se
aplica a los seres vivos en lugar de a los componentes físicos electrónicos. La
Bioinstrumentación obtiene medidas de variables fisiológicas de seres vivos para su
posterior procesamiento y obtención de resultados que determinan el estado del mismo.

Para definir todos los términos relacionados con la bioingeniería, se han creado
numerosas asociaciones profesionales tales como IEEE Engineering in Medicine and
Biology Group, el ASME Biomechanical and Human Factors Division, la Instrument
Society of America, el American Institute of Aeronautics and Astronautics y otras.

El Subcommittee B (intrumentation) of the Engineers Joint Council Committe on


Engineering Interactions with Biology and Medicine es una comisión de ingenieros que
se creó para definer la Bioingeniería. Entre sus recomendaciones cabe citar:

 La Bioingeniería es la aplicación de los conocimientos adquiridos por la influencia


mutua de la Ingeniería y la Biología de manera que ambas se puedan utilizar de
forma más completa en beneficio del hombre.

 La Bioingeniería tiene diferentes campos de aplicación que se definen a


continuación:

 La ingeniería Biomédica es la aplicación de la ingeniería a la medicina,


 La ingeniería del Medio Ambiente es la aplicación de los principios de la ingeniería
al medio ambiente,
 La ingeniería Agrícola es la aplicación de estos principios a la producción
biológica y acciones externas y ambientales que influyen en ella,

2
 La ingeniería de Factores Humanos que es la aplicación de la ingeniería, fisiología
y psicología a la optimización de las relaciones hombre-máquina.

Se denomina instrumento a cualquier dispositivo empleado para medir, registrar y/o


controlar el valor de una magnitud bajo observación. La instrumentación desde este
punto de vista puede considerarse como la ciencia y tecnología del diseño y utilización
de los instrumentos.

La instrumentación biomédica trata sobre los instrumentos empleados para obtener


información al aplicar energía a los seres vivos, y también a aquellos dispositivos
destinados a ofrecer una ayuda funcional o a la sustitución de funciones fisiológicas o de
órganos. Los instrumentos biomédicos se emplean para diagnóstico, monitorización,
terapia, electrocirugía y rehabilitación.

1. Estructura general de un sistema de instrumentación biomédica.


Los equipos o sistemas de instrumentación biomédica pueden ser representados
mediante un diagrama de bloques similar al de la figura 1.1. En el diagrama de bloques
el flujo principal de información va del paciente al equipo y los elementos mostrados por
líneas discontinuas no son esenciales. La principal diferencia entre los sistemas de
instrumentación biomédica y cualquier otro sistema de instrumentación convencional
consiste en que la fuente de las señales a medirse suelen ser seres vivos o energía
aplicada a estos seres o tejidos vivos.
Los principales bloques que componen un sistema de instrumentación biomédica son:
1.1. Medida.

Es la magnitud física, propiedad o condición que mide el sistema. La accesibilidad a la


medida es un parámetro a tener en cuenta ya que esta puede ser interna (presión de la
sangre), puede medirse en la superficie del cuerpo (potenciales extracelulares como el
electrocardiograma), puede emanar del cuerpo (radiaciones infrarrojas) o puede salir o
derivarse de una muestra de tejido del cuerpo (sangre o una biopsia). Las medidas
médicas más importantes pueden agruparse en las siguientes categorías:
biopotenciales, presión, flujo, dimensiones (imagen), desplazamiento (velocidad,
aceleración y fuerza), impedancia, temperatura y concentraciones químicas. Estas
medidas pueden localizarse en un órgano concreto o por toda la estructura anatómica.

1.1.1. Sensor.

Normalmente el término transductor se emplea para definir a aquellos dispositivos que


convierten una forma de energía en otra. El término sensor se emplea para los
dispositivos que convierten una medida física en una señal eléctrica. El sensor sólo
debería responder a la forma de energía presente en la medida que se desea realizar y
excluir las demás. Además, debe poseer una interfaz con el tejido o sistema vivo de
forma que no interfiera en éste, debe de minimizar la energía extraída y ser lo menos
invasivo posible. Muchos sensores constan de elementos sensores primarios como
3
diafragmas, que convierte la presión en desplazamientos. Un elemento de conversión se
encarga posteriormente de convertir esta magnitud en señales eléctricas como puede
ser una galga que convierte el desplazamiento en tensión. Algunas veces, las
características del sensor pueden ajustarse para adaptarse a un amplio rango de
sensores primarios. Otras veces se necesitan alimentaciones externas para alimentar
estos sensores y obtener datos de salida de los mismos.

CONTROL Y REALIMENTACIÓN

ALIMENTACIÓN

TRANSDUCTOR

MEDIDA DISPOSITIVO SENSOR CONVERSOR PROCESADOR DISPOSITIVO SALIDA

CALIBRACIÓN

MEMORIA TRANSMISIÓN DE DATOS


ENERGÍA APLICADA RADIACIONES

Figura 1.1. Esquema general de un equipo de instrumentación biomédica.

1.1.2. Acondicionamiento de la señal.

Normalmente, la señal obtenida del sensor no puede aplicarse directamente al display o


dispositivo de salida (pantalla, papel). Un acondicionador simple puede amplificar, filtrar
y adaptar la impedancia del sensor a la pantalla. A menudo, las señales de salida de los
sensores se digitalizan y se procesan utilizando ordenadores o sistemas basados en
microcontroladores. Por ejemplo, para compensar los errores de medida debidos a
posibles ruidos aleatorios puede realizarse un promediado de esta señal.

1.1.3. Dispositivo de salida.

4
El resultado del proceso de medida puede mostrarse de diferentes formas, pero es
conveniente que estos resultados se muestren de la forma más sencilla y cómoda de
interpretar por parte del operador humano. En función del tipo de medida y cómo el
operador humano va a utilizarla, los resultados pueden representarse por medio gráficos
o datos numéricos, de forma continua o discreta, de manera temporal o permanente.
Aunque la mayoría de los dispositivos de salida dan una información visual, existen
equipos que pueden generar otro tipo de informaciones (pitidos, diferentes sonidos).

1.1.4. Elementos auxiliares.

Existen diferentes elementos auxiliares que pueden implementar en el equipo de


medida. Puede utilizarse una señal de calibrado para calibrar los resultados. Puede
introducirse realimentaciones de las señales de salida para controlar diferentes aspectos
del equipo o ajustar diferentes parámetros del sensor. El control y el sistema de
realimentación pueden ser automáticos o manuales. Los datos pueden almacenarse en
memorias en función de las condiciones de trabajo. Existen sistemas de seguridad que
alertan ante posibles riesgos por parte del sujeto. También pueden existir equipos de
telemetría que envían datos a terminales remotos para su posterior procesamiento.

1.2. Características de la instrumentación biomédica.

La fuente de las señales medidas con la instrumentación biomédica son los tejidos vivos
o energía aplicada a éstos. Esta circunstancia condiciona los métodos de medida
aplicables y los sensores o transductores a utilizar. Para ello deben cumplirse los
siguientes requisitos:

1. La acción de medir no debe alterar la magnitud medida. Dicha alteración puede


producirse como resultado de una interacción física directa, bioquímica, fisiológica o
psicológica. Lo ideal sería que las medidas se realizasen de una forma no invasiva y
sin contacto, pero esto no es posible en todos los casos. Además, el mero
conocimiento de que se está realizando una medida, puede provocar reacciones en el
paciente que distorsionan completamente los resultados.

2. Hay que garantizar la seguridad del paciente. La acción de medir no debe poner en
peligro innecesariamente la vida del paciente. Ante la inaccesibilidad de muchas
medidas se recurre a medidas indirectas en las cuales se sensa otra magnitud
relacionada con la deseada (por ejemplo, para medir la presión sanguínea suele
sensarse la variación de volumen de un miembro cuando lo atraviesa la sangre
utilizando técnicas de pletismografía. Si la variable medida es el resultado de aporte
de energía al tejido vivo, hay que respetar los límites aceptados como seguros
(radiografía). La seguridad también exige que los sensores sean de fácil esterilización
o de usar y tirar, y no posean recubrimientos agresivos que puedan provocar
reacciones al entrar en contacto con el paciente.

2. Considerando el entorno de trabajo donde se van a ubicar los equipos, éstos deben
ser robustos, fiables y de fácil calibración. Otra característica que diferencia a la

5
instrumentación biomédica de la industrial es que las variables biomédicas rara vez
son determinísticas y éstas varían enormemente de unas personas a otras. También
es habitual, que en una medida de una señal biológica influyan otras señales que
constituyen una interferencia (estas interferencias pueden deberse a otras variables
fisiológicas o propias del equipo de medida). Su supresión es uno de los objetivos
fundamentales en el diseño de un sistema de medida utilizándose para ello las
técnicas habituales en instrumentación.

1.3. Modos de funcionamiento alternativos.

1.3.1. Modo de Adquisición Directo-Indirecto.

A menudo, la medida de la magnitud deseada puede obtenerse directamente por el


sensor puesto que ésta es accesible. Este modo de adquisición se denomina modo
directo. Cuando la medida no es accesible, se utiliza el modo indirecto que se basa en
obtener medidas relacionadas con la deseada. Como ejemplo de medida directa puede
citarse el registro del electrocardiograma por medio de electrodos superficiales y como
medida indirecta el volumen de sangre por minuto que bombea el corazón.

1.3.2. Modo de Adquisición Continuo-Muestreado.

Algunas medidas, como, por ejemplo, la temperatura corporal o la concentración de


iones, varían lentamente en el tiempo, de forma que pueden adquirirse o muestrearse a
intervalos grandes de tiempo. Otras magnitudes o medidas, como el electrocardiograma
o flujo sanguíneo requieren una monitorización continua. Por lo tanto, la frecuencia de la
señal que se desea medir, el objetivo de la medida, los estados del paciente influyen en
el diseño del sistema de adquisición de datos.

1.3.3. Sensores Generadores y Moduladores.

Los sensores generadores producen una señal de salida directamente de la señal


medida, mientras que los moduladores utilizan la medida obtenida para variar el flujo de
energía de una fuente externa de forma que varía la salida del sensor. Por ejemplo, una
célula fotovoltaica es un sensor generador puesto que proporciona una tensión
relacionada con la radiación luminosa recibida, sin embargo, una célula fotoconductora
es un sensor modulador ya que para medir los cambios de su resistencia en función de
la radiación recibida debe aplicarse una energía externa o tensión al sensor.

1.3.4. Modo de Adquisición Análogo y Digital.

Las señales que transportan la información medida pueden ser análogas o digitales.
Normalmente los sensores funcionan en modo análogo, aunque también existe el modo
digital. En los últimos años, ha aumentado el uso de sistemas que trabajan el modo
digital con lo que se utilizan conversores análogo-digitales y digital-análogos como
interfaces entre los sensores y dispositivos de salida análogos y los procesadores
digitales. Las ventajas del modo digital incluyen mayor precisión, repetitividad, fiabilidad
6
e inmunidad a ruidos. Los dispositivos de salida digitales se van imponiendo a los
análogos, si bien en muchas aplicaciones se prefieren los análogos cuando hay que
determinar si la variable medida está dentro de unos límites y ésta varía rápidamente
como el latido del corazón. En este caso, la representación digital cambia los números
tan rápidamente que no pueden casi apreciarse.

1.3.5. Modo de trabajo en Tiempo Real – Tiempo Retardado.

Los sensores deben adquirir las señales en tiempo real. La salida de los sistemas de
salida puede no mostrar los resultados inmediatamente puesto que se puede requerir
diferentes procesamientos o transformaciones para obtenerlos. A menudo, estos
retardos en presentar los resultados pueden admitirse a no ser que se requiera una
realimentación o control urgente de una tarea en función de la salida.

1.4. Restricciones en las mediciones.


La instrumentación biomédica se diseña para medir diversos parámetros físicos y
fisiológicos. El rango de frecuencias y valores del parámetro a medir son los principales
factores que deben tenerse en cuenta a la hora de diseñar un sistema (Figura 1.1). Un
resumen de los principales parámetros, y sus valores estándar pueden observarse en la
tabla 1.1.

PARÁMETRO O RANGO DE FRECUENCIA DE SENSOR O


TÉCNICA DE MEDIDA MEDIDA LA SEÑAL (Hz) TRANSDUCTOR
Balistocardiógrafo 0-7 mg dc-40 Acelerómetro
(BCG) Galga Extensiométrica
Desplazamiento
0-100 µm dc-40 (LVDT)
Presión Blader 1-100 cm H2O dc-10 Galga Extensiométrica
Manómetro
Presión de la sangre 1-300 ml/s dc-20 Flujómetro
(electromagnético o
Ultrasónico)
Presión arterial de la 1-400 mm Hg dc-50 Galga Extensiométrica
sangre Manómetro
Presión venosa de la 0-50 mm Hg dc-50 Galga Extensiométrica
sangre Auscultación, Cuff
pH sangre 6,8-7,8 pH dc-2 Electrodos específicos

volumen/minuto 4-25 litros/minuto dc-20 Tinte, Flujómetro

Electrocardiograma 0.5-4 mV 0.01-250 Electrodos superficiales


(ECG)

7
Electroencefalograma 5-300 µV dc-150 Electrodos en el cuero
(EEG) cabelludo

Electromiograma 0.1-5 mV dc-10.000 Electrodos de aguja


(EMG)
Electrooculograma 50-3500 µV dc-50 Electrodos de contacto
(EOG)
Electroretinograma 0-900 µV dc-50 Electrodos de contacto
(ERG)
Respuesta galvánica 1-500 KS 0,01-1 Electrodos de piel
de la
piel (GSR)
pH gástrico 3-13 pH unidad dc-1 Electrodo de pH
Electrodo de antimonio
Presión gastrointestinal 0-100 cm H2O dc-10 Galga Extensiométrica
Manómetro
Fuerza gastrointestinal 1-50 g dc-1 Desplazamiento

Potenciales nerviosos 0,01-3 mV dc-10.000 Electrodos de aguja o


superficiales
Fonocardiograma rango dinámico de 5-2000 Micrófono
80dB, umbral 100
µPa
Pletismógrafo En función del dc-30 Desplazamiento de
(cambio volumen) órgano cámara
medido o cambio de impedancia
Flujo de aire 0-600 litros/minuto dc-40 Neumotacógrafo y
Neumotacografía presión
diferencial
Ratio de respiración 2-50 por minuto 0,1-10 Galga Extensiométrica
Termistor nasal

Temperatura corporal 32-40ºC dc-0.1 Termistores


Termopares
Tabla 1.1.- Rango y frecuencia de parámetros fisiológicos.

Muchas variables importantes de los sistemas fisiológicos no pueden obtenerse


directamente y sin daño para el paciente puesto que son inaccesibles y deben obtenerse
por medio de medidas indirectas.

Las variables medidas en el cuerpo humano rara vez son determinísticas. Sus
magnitudes varían con el tiempo, incluso teniendo controladas todas las variables que
pueden aceptarle. La mayoría de las medidas biomédicas varían ampliamente entre
diferentes pacientes normales, incluso en condiciones similares de medida. Existen
numerosos lazos de realimentación entre diferentes variables fisiológicas y todavía
muchos de ellos no se conocen suficientemente. El método más común para asumir esta
8
variabilidad de las medidas y poder compararlas con otras es utilizar funciones de
distribución estadísticas y probabilísticas.

Hoy en día, todas las medidas biomédicas dependen de alguna forma de energía que se
aplica al tejido vivo o de alguna energía que modifica el funcionamiento del sensor. Por
ejemplo, los rayos X o imágenes por ultrasonidos dependen de energía aplicada
externamente que interactúa sobre el tejido vivo. Los niveles de seguridad de estas
energías son difíciles de establecer ya que muchos mecanismos que provocan daños a
los tejidos no se comprenden en la actualidad muy bien.

El funcionamiento de los instrumentos en entornos médicos impone restricciones muy


importantes. El equipo debe ser seguro, de fácil manejo y capaz de soportar golpes y
exposiciones a productos químicos. El equipo electrónico debe diseñarse para minimizar
los riesgos de electroshock. La seguridad de los pacientes y del personal sanitario debe
tenerse en cuenta en todas las fases del diseño y testeo de los equipos. Existen
numerosas reglamentaciones que vigilan la seguridad de los dispositivos o equipos
destinados a uso humano.

1.5. Clasificación de la instrumentación biomédica.


El estudio de la instrumentación biomédica puede realizarse al menos desde cuatro
puntos de vista. Las técnicas utilizadas para obtener una media biomédica pueden
clasificarse en función de la magnitud que se sensa, como puede ser la presión, flujo o
temperatura. Una ventaja de este tipo de clasificación es que pueden compararse
fácilmente diferentes métodos de medir un determinado parámetro.

Una segunda clasificación se basa en el principio de transducción, tales como resistivo,


inductivo, capacitivo, ultrasonidos o electroquímicos.

Las técnicas de medida pueden estudiarse separadamente para cada sistema


fisiológico: sistema cardiovascular, respiratorio, nervioso, entre otros. De esta forma,
pueden aislarse diferentes parámetros para cada área específica, pero normalmente se
solapan diferentes magnitudes medidas y principios de transducción, es decir, puede
medirse la misma magnitud o parámetro en varios sistemas fisiológicos.

Una tercera forma de clasificar los instrumentos biomédicos es en función de la


especialidad médica o clínica donde se utilice. Ejemplos de esta clasificación es la
instrumentación destinada a pediatría, obstetricia, cardiología o radiología.

Cuando se desea adquirir o diseñar un equipo biomédico, no sólo deben tenerse en


cuenta especificaciones relacionadas con el objetivo de la medida a realizar, sino
también que desde el punto de vista de la seguridad debe evitarse o minimizarse el
peligro de descarga eléctrica o choque eléctrico por parte del paciente o del personal
que pueda (Ing. Daniel Thevenet 2008) o choque eléctrico por parte del paciente o del
personal que pueda utilizarlo o entrar en contacto con él.

9
Existen varios organismos e instituciones que se dedican a establecer los niveles de
seguridad y comprobar que estos se cumplan antes de homologarlos. Entre ellos:

• AENOR (Asociación Española de Normalización y Certificación)


• IEC (International Electrotechnical Commission)
• IEEE (Institute of Electrical and Electronics Engineers)

1.5.1. Norma Internacional de Clasificación de Instrumentos Biomédicos.

Clasificación de equipos biomédicos con respecto a la seguridad.

Según la norma IEC 60364-7-710: 2002-11. IEC (International Electrotechnical


Commission). Los equipos biomédicos se clasifican de la siguiente forma:

Según la protección utilizada. (Figura. 1.2.)

• Clase I. Aquellos equipos en los que la protección no se obtiene sólo del aislamiento
básico, sino que se incluyen precauciones auxiliares, de forma que se dispone de una
conexión de las partes conductoras accesibles al conductor de tierra de forma
permanente, para que no puedan estar a tensión elevada en caso de fallo de
aislamiento.

• Clase II. Aquellos equipos en los que la protección no recae sólo sobre el aislamiento
básico, sino que se dispone de un doble aislamiento o aislamiento reforzado, no
existiendo provisión de una puesta a tierra de seguridad. Existen tres tipos generales
de equipos de esta clase: los que incorporan una cubierta aislante, los de cubierta
metálica y los mixtos.

• Clase III. Aquellos equipos en los que la protección se basa en alimentar a tensiones
muy bajas de seguridad, no generándose tensiones mayores que ésta en el equipo.

10
Figura. 1.2. Esquemas eléctricos de la clasificación de Instrumentos Biomédicos según
la protección utilizada.

Según el nivel de protección:

• Tipo B. Son todos aquellos equipos de las clases I, II, III o con alimentación interna que
provean un adecuado grado de protección respecto a corrientes de fugas y fiabilidad
de la conexión de tierra. Según la norma IEC, deberán ser equipos tipo B todos
aquellos equipos de uso médico que no tengan una parte directamente aplicada al
paciente.

• Tipo BF. Aquellos de tipo B con la entrada o parte aplicada al paciente mediante
circuitos flotantes. Según la norma IEC, deberán ser equipos tipo BF todos aquellos
equipos que tengan una parte aplicada al paciente

• Tipo CF. Aquellos equipos de las clases I, II o alimentados internamente que permitan
un alto grado de protección en relación con corrientes de fugas y con entrada flotante.
Según la norma IEC, deberán ser equipos tipo CF todos aquellos en que se pueda
establecer un camino directo al corazón del paciente.

• Tipo H. Aquellos de las clases I, II, III o alimentados internamente que provean
protección frente a descargas eléctricas comparables a las que se obtienen en los
electrodomésticos.

1.5.2. Norma Colombiana de Clasificación de Instrumentos Biomédicos.

Según el Decreto 4725 del 2005 del Ministerio de Protección Social, los dispositivos
médicos se deben clasificar de acuerdo al siguiente articulado:

11
Artículo 5°. Clasificación. La clasificación de los dispositivos médicos realizada por el
fabricante, se fundamenta en los riesgos potenciales relacionados con el uso y el posible
fracaso de los dispositivos con base en la combinación de varios criterios tales como,
duración del contacto con el cuerpo, grado de invasión y efecto local contra efecto
sistémico.
Se deberá establecer la clasificación de los dispositivos médicos siguiendo las reglas
establecidas en el artículo 7° del presente decreto, dentro de las siguientes clases:

Clase I. Son aquellos dispositivos médicos de bajo riesgo, sujetos a controles generales,
no destinados para proteger o mantener la vida o para un uso de importancia especial
en la prevención del deterioro de la salud humana y que no representan un riesgo
potencial no razonable de enfermedad o lesión.

Clase II a. Son los dispositivos médicos de riesgo moderado, sujetos a controles


especiales en la fase de fabricación para demostrar su seguridad y efectividad.

Clase Il b. Son los dispositivos médicos de riesgo alto, sujetos a controles especiales en
el diseño y fabricación para demostrar su seguridad y efectividad.

Clase III. Son los dispositivos médicos de muy alto riesgo sujetos a controles especiales,
destinados a proteger o mantener la vida o para un uso de importancia sustancial en la
prevención del deterioro de la salud humana, o si su uso presenta un riesgo potencial de
enfermedad o lesión.

Artículo 6°. Criterios de clasificación. La aplicación de las reglas de clasificación se


regirá por la finalidad prevista de los dispositivos médicos:

a) Si un dispositivo médico se destina a utilizarse en combinación con otro dispositivo


médico, las reglas de clasificación se aplicarán a cada uno de los productos por
separado del producto con el que se utilicen.

b) Los soportes informáticos que sirvan para manejar un producto o que tengan
influencia en su utilización se incluirán automáticamente en la misma categoría.

c) Si un dispositivo médico no se destina a utilizarse exclusiva o principalmente en una


parte específica del cuerpo, se considerará para la clasificación, su utilización
específica más crítica.

d) Si para el mismo dispositivo médico, son aplicables varias reglas teniendo en cuenta
las funciones que le atribuye el fabricante, se aplicarán las reglas que conduzcan a
la clasificación más elevada.

Artículo 7°. Reglas de clasificación. Para clasificar un dispositivo médico se tendrán en


cuenta las siguientes reglas:

12
A. Dispositivos Médicos No Invasivos.

Regla 1. Todos los dispositivos médicos no invasivos se incluirán en la clase I, salvo que
les sean aplicables algunas de las reglas siguientes.

Regla 2. Todos los dispositivos médicos no invasivos destinados a la conducción o


almacenamiento de sangre, fluidos o tejidos corporales, líquidos o gases destinados a
una perfusión, administración o introducción en el cuerpo, harán parte de la clase II a;
siempre que:

a) Puedan conectarse a un dispositivo médico activo de la clase II a o de una clase


superior;

b) Estén destinados a ser utilizados para el almacenamiento o canalización de sangre u


otros fluidos o para el almacenamiento de órganos, partes de órganos o tejidos
corporales. En todos los demás casos se incluirán en la clase I.

Regla 3. Todos los dispositivos médicos no invasivos destinados a modificar la


composición biológica o química de la sangre, de otros fluidos corporales o de otros
líquidos destinados a introducirse en el cuerpo se incluirán en la clase II b, salvo si el
tratamiento consiste en filtración, centrifugación o intercambios de gases o de calor, en
cuyo caso, se incluirán en la clase II a.

Regla 4. Todos los dispositivos médicos no invasivos que entren en contacto con la piel
lesionada, se clasificarán en:

a) La clase I, si están destinados a ser utilizados como barrera mecánica para la


compresión o para la absorción de exudados.

b) La clase II b, si se destinan principalmente a utilizarse con heridas que hayan


producido una ruptura de la dermis y sólo pueden cicatrizar por segunda intención.

c) La clase II a, en todos los demás casos, incluidos los dispositivos médicos


destinados principalmente a actuar en el micro entorno de una herida.

B. Dispositivos Médicos Invasivos.

Regla 5. Todos los dispositivos médicos invasivos en relación con los orificios
corporales, salvo los dispositivos médicos invasivos de tipo quirúrgico, que no estén
destinados a ser conectados a un dispositivo médico activo, se incluirán en:

a) La clase I, si se destinan a un uso transitorio.

b) La clase II a, si se destinan a un uso a corto plazo, salvo si se utilizan en la cavidad


oral hasta la faringe, en el conducto auditivo externo hasta el tímpano o en una
cavidad nasal, en cuyo caso, si incluirán en la clase I.

13
c) La clase II b, si se destinan a un uso prolongado, salvo si se utilizan en la cavidad oral
hasta la faringe, en el conducto auditivo externo hasta el tímpano o en una cavidad
nasal, y no pueden ser absorbidos por la membrana mucosa, en cuyo caso, se
incluirán en la clase II a.

d) Todos los productos invasivos en relación con los orificios corporales, salvo los
productos invasivos de tipo quirúrgico, que se destinen a conectarse a un producto
activo de la clase II a o de una clase superior, entrarán en la clase II a.

Regla 6. Todos los dispositivos médicos invasivos de tipo quirúrgico destinados a un uso
transitorio se incluirán en la clase II a, salvo que:

a) Sean instrumentos quirúrgicos reutilizables, en cuyo caso, se incluirán en la clase I.

b) Se destinen a suministrar energía en forma de radiaciones ionizantes, en cuyo caso,


se incluirán en la clase II b.

c) Se destinen a ejercer un efecto biológico o a ser absorbidos totalmente o en gran


parte, en cuyo caso, se incluirán en la clase II b.

d) Se destinen a la administración de medicamentos mediante un sistema de suministro,


si ello se efectúa de manera potencialmente peligrosa teniendo en cuenta el modo de
aplicación, en cuyo caso, se incluirán en la clase II b.

e) Se destinen específicamente a diagnosticar, vigilar o corregir una alteración cardiaca


o del sistema circulatorio central por contacto directo con estas partes del cuerpo, en
cuyo caso, se incluirán en la clase III.

Regla 7. Todos los dispositivos médicos invasivos de tipo quirúrgico destinados a un uso
a corto plazo se incluirán en la clase II a, salvo que tengan por finalidad:

a) Suministrar energía en forma de radiaciones ionizantes, en cuyo caso, se incluirán en


la clase II b.

b) Experimentar modificaciones químicas en el organismo, salvo si los productos se


colocan dentro de los dientes, o administrar medicamentos, en cuyo caso, se incluirán
en la clase II b.

c) Específicamente diagnosticar, vigilar o corregir una alteración cardiaca o del sistema


circulatorio central por contacto directo con estas partes del cuerpo, en cuyo caso, se
incluirán en la clase III.

d) Utilizarse, específicamente, en contacto directo con el sistema nervioso central, en


cuyo caso, se incluirán en la clase III.

14
e) Ejercer un efecto biológico o ser absorbidos, totalmente o en gran parte, en cuyo
caso, se incluirán en clase III.
Regla 8. Todos los dispositivos médicos implantables y los dispositivos médicos
invasivos de uso prolongado de tipo quirúrgico, se incluirán en la clase II b salvo que se
destinen a:

a) Colocarse dentro de los dientes, en cuyo caso, se incluirán en la clase II a.

b) Utilizarse en contacto directo con el corazón, el sistema circulatorio central o el


sistema nervioso central, en cuyo caso, se incluirán en la clase III.

c) Ejercer un efecto biológico o ser absorbidos totalmente o en gran parte, en cuyo caso,
se incluirán en la clase III.

d) Sufrir modificaciones químicas en el organismo, salvo si los productos se colocan


dentro de los dientes, o a la administración de medicamentos, en cuyo caso, se
incluirán en la clase III.

C. Reglas Adicionales Aplicables a los Dispositivos Médicos Activos.

Regla 9. Todos los dispositivos médicos terapéuticos activos destinados a administrar o


intercambiar energía se incluirán en la clase II a, salvo si sus características son tales
que puedan administrar energía al cuerpo humano o intercambiarla con el mismo, de
forma potencialmente peligrosa, teniendo en cuenta la naturaleza, la densidad y el punto
de aplicación de la energía, en cuyo caso, se incluirán en la clase II b.

Todos los dispositivos médicos activos destinados a controlar el funcionamiento de los


productos terapéuticos activos de la clase II b o destinados a influir directamente en el
funcionamiento de dichos productos se incluirán en la clase II b.

Regla 10. Todos los dispositivos médicos activos con fines de diagnóstico se incluirán en
la clase II a, siempre que:

a) Se destinen a suministrar energía que vaya a ser absorbida por el cuerpo humano,
caso en el cual, son excluidos los productos cuya función sea la iluminación del
organismo del paciente en el espectro visible.

b) Se destinen a crear una imagen de la distribución in vivo de fármacos radiactivos.

c) Se destinen a permitir un diagnóstico directo o la vigilancia de procesos fisiológicos


vitales, a no ser que se destinen específicamente a la vigilancia de parámetros
fisiológicos vitales, cuando las variaciones de esos parámetros, por ejemplo, las
variaciones en el funcionamiento cardíaco, la respiración, la actividad del sistema
nervioso central, puedan suponer un peligro inmediato para la vida del paciente, en
cuyo caso, se incluirán en la clase II b.

15
d) Los dispositivos médicos activos destinados a emitir radiaciones ionizantes y que se
destinen a la radiología con fines diagnósticos y terapéuticos, incluidos los productos
para controlar o vigilar dichos productos, o que influyan directamente en el
funcionamiento de los mismos, se incluirán en la clase II b.

Regla 11. Todos los dispositivos médicos activos destinados a administrar


medicamentos, líquidos corporales u otras sustancias al organismo, o extraerlos del
mismo, se incluirán en la clase II a, salvo que ello se efectúe de forma potencialmente
peligrosa, teniendo en cuenta la naturaleza de las sustancias, la parte del cuerpo de que
se trate y el modo de aplicación, en cuyo caso, se incluirán en la clase II b.

Regla 12. Todos los demás dispositivos médicos activos se incluirán en la clase I.

D. Reglas Especiales

Regla 13. Todos los dispositivos médicos que incorporen como parte integral una
sustancia que, si se utilizara independientemente, pudiera considerarse como un
medicamento y que pueda ejercer sobre el cuerpo humano una acción accesoria a la de
los dispositivos médicos, se incluirán en la clase III.

Regla 14. Todos los dispositivos médicos utilizados con fines anticonceptivos o para la
prevención de la transmisión de enfermedades transmisibles por contacto sexual, se
considerarán dispositivos médicos de la clase II b, a menos que sean dispositivos
médicos implantables o invasivos de uso prolongado, en cuyo caso, se incluirán en la
clase III.

Regla 15. Todos los productos destinados específicamente a usos de desinfección,


limpieza, enjuague o, en su caso, a la hidratación de lentes de contacto, se incluirán en
la clase II b.

Todos los productos que se destinen específicamente a la desinfección de dispositivos


médicos, se incluirán en la clase II a.

La presente regla no se aplicará a productos destinados a la limpieza de dispositivos


médicos que no sean lentes de contacto mediante acción física.

Regla 16. Los dispositivos médicos no activos destinados específicamente al registro de


imágenes radiográficas de diagnóstico, se incluirán en la clase II a.

Regla 17. Todos los dispositivos médicos elaborados utilizando tejidos animales o
derivados de los mismos que hayan sido transformados en inviables, se incluirán en la
clase III, excepto en los casos en que los dispositivos médicos estén destinados a entrar
en contacto únicamente con piel intacta.

Regla 18. No obstante lo dispuesto en otras reglas, las bolsas para sangre se incluirán
en la clase II b.

16
1.5.3. Clasificación de Instrumentos Biomédicos según la norma colombiana.

INSTRUMENTOS BIOMÉDICOS

CLASE I CLASE II a CLASE II b


ECG Centrífuga Electrocauterio

EEG Laser

EMG Rayos X

ERG Escáner

Ecógrafo RMN

Monitor Fetal Tomógrafo

Monitor de Signos
Vitales

Fotocolorímetro

Espectrofotómetro

Mesa de Cirugía

Lámpara Cielítica

Oxímetro

Máquina de Respiración

Equipo de Anestesia

Autoclave

Desfibrilador

Microscopio

Electrobisturí

Tabla 1.2. Clasificación de algunos instrumentos Biomédicos según Norma Colombiana.

1.6. Características estáticas generales de los equipos de instrumentación


biomédica.

Las características estáticas de un instrumento describen el funcionamiento y


prestaciones de éste para la corriente continua o señales de entrada de baja frecuencia.
17
Las propiedades de la señal de salida para un amplio rango de valores de entrada
constantes determinan la calidad de la medida, incluyendo los efectos de no-linealidad.
Algunos sensores e instrumentos, como los sensores o dispositivos piezoeléctricos solo
responden a señales variables y no tienen características estáticas. A continuación, se
trata sobre esas características estáticas.

1.6.1. Exactitud. (Accuracy)

La exactitud de una única medida es la diferencia entre el valor real y el valor medido
dividido por el valor real. Esta relación normalmente se expresa en porcentaje. Debido a
que el valor real generalmente no puede disponerse (recuérdese que las medidas o
magnitudes biomédicas rara vez son determinísticas) se acepta como valor real un valor
de referencia.

VALOR REAL−VALOR MEDIDO


EXACTITUD=
VALOR REAL

La exactitud varía en función del rango y la frecuencia de la magnitud a medir. Puede


expresarse como porcentaje de la magnitud medida (± 0.01% del valor medido),
porcentaje a fondo de escala (±0.015 a fondo de escala) o ± número de dígitos (± 1
dígito).

En términos generales, la exactitud es también la capacidad de un instrumento de dar


indicaciones que se aproximen al verdadero valor de la magnitud medida. El valor exacto
se obtiene mediante métodos de medidas validados internacionalmente.
 
La discrepancia entre el valor correcto y el obtenido es el error. El error puede ser
definido como:
 
a) Error absoluto, como la diferencia entre el valor obtenido y el valor verdadero.
 
b) Error relativo, como la relación que hay entre el error absoluto y el valor verdadero
expresado en tanto por ciento.
 
c) Error referido a fondo escala. Es la forma habitual de expresar el error en los
instrumentos y consiste en dividir el error absoluto entre el fondo escala del
instrumento.
 
El valor medido y su exactitud deben darse con valores numéricos compatibles, de forma
que el resultado numérico de la medida no debe tener más cifras de las que se puedan
considerar válidas. Ejemplo:

 
20ºC + 1ºC es correcto
20ºC+0,1ºC incorrecto
20,5 ºC+1ºC incorrecto
18
20,5ºC+10% incorrecto

1.6.2. Precisión.

La precisión de una medida determina el número de dígitos válidos en una medida


realizada. Por ejemplo, una medida de 2,434 V es más precisa que una medida de 2.43
V. Una medida de alta precisión no significa necesariamente alta exactitud, por lo tanto,
la precisión no puede considerarse como un parámetro válido para comparar diferentes
equipos. La precisión es la cualidad que caracteriza la capacidad de un instrumento de
medida de dar el mismo valor de la magnitud medida.

1.6.3. Resolución.

La resolución representa el incremento más pequeño de la magnitud de entrada que


puede medirse con certeza, en otros términos, es el incremento mínimo de la entrada del
instrumento para el que se obtiene un cambio en la salida del mismo.

1.6.4. Reproductibilidad, Repetitividad.

La repetitividad o reproductibilidad de una medida es la capacidad de un instrumento de


obtener la misma salida para la misma entrada aplicada en instantes de tiempo
diferentes. Esta característica no implica exactitud de la medida.

1.6.5. Control Estático.

La exactitud de un equipo depende de muchos parámetros, y debe tenerse en cuenta el


entorno de trabajo y el modo de uso del mismo. Este control asegura que variaciones
aleatorias en las medidas entran dentro de una determinada tolerancia y por lo tanto
pueden admitirse. Los ruidos o errores sistemáticos pueden eliminarse fácilmente
mediante un proceso de calibración o corrigiendo algunos factores, sin embargo, las
variaciones aleatorias tienen una solución más complicada.

Los equipos de medida pueden introducir errores estáticos que provocan que la salida
no se pueda repetir. Si este problema no puede solucionarse (eliminar ruidos
sistemáticos) debe realizarse un estudio del sistema para determinar la posible variación
del error. De esta forma, el valor real puede estimarse utilizando diversas técnicas como
el promediado o técnicas de estimación.

1.6.6. Sensibilidad.

La sensibilidad o factor de escala es la pendiente de la curva de calibración, que puede


ser o no constante a lo largo de la escala de medida.

La sensibilidad estática de un instrumento o sistema representa el incremento que sufre


la señal de salida ante un incremento de la magnitud de entrada. La sensibilidad

19
generalmente no es constante, aunque puede considerarse constante para
determinados intervalos de la señal de entrada (Figura 1.3)

Figura 1.3. a) Sensibilidad. b) Variación de la respuesta.

1.6.7. Desplazamiento del Origen.

Las interferencias o variaciones de los parámetros del sistema pueden aceptar a la curva
de calibración en estática vista en la Figura 1.3. El desplazamiento del origen ocurre
cuando todos los valores o magnitudes medidas se ven incrementadas o decrementadas
en una misma cantidad (valor absoluto). En este caso no se producen variaciones en la
pendiente de la curva por lo que no se producen variaciones en la sensibilidad del
equipo. Entre las causas que pueden provocar un desplazamiento del origen se puede
citar: fabricación defectuosa, variaciones de la temperatura ambiente, derivas de los
componentes electrónicos empleados, histéresis, posibles vibraciones. Un ejemplo de
desplazamiento del origen sería una posible variación de la tensión de offset d.c. de los
electrodos en un electrocardiograma (Figura 1.4.a). Las variaciones lentas de este
potencial no serían problema puesto que los electrocardiógrafos eliminar la componente
continua, sin embargo, variaciones rápidas de esta señal debidas a movimientos del
paciente pueden provocar desplazamientos en la señal de salida.

20
Figura 1. 4.a. Conexiones de electrodos al instrumento ECG.

Figura 1.4.b. Desplazamiento de la señal.

1.6.8. Deriva de la Sensibilidad.


21
Se produce un desplazamiento o deriva de la sensibilidad cuando la pendiente de la
curva cambia debido a interferencias o variaciones de las entradas. Esta variación
introduce un error que es proporcional a la magnitud de la entrada. La pendiente puede
incrementarse o decrementarse como se observa en la Figura 1.4.b. Esta deriva puede
deberse a tolerancias de los componentes, variaciones en las alimentaciones, no-
linealidad de los componentes, cambios en la temperatura ambiente y presión. Como
ejemplo puede citarse variaciones en la ganancia de los amplificadores del ECG debidas
a fluctuaciones de la alimentación o cambios de temperatura.

1.6.9. Linealidad.

Linealidad expresa el grado de coincidencia entre la curva de calibración y una línea


recta determinada.

Un sistema o elemento es lineal si cumple la propiedad de la linealidad. Esta propiedad


establece:

Donde X representa las entradas al sistema e Y, las salidas, siendo K constante.

1.6.10. Rangos de Entrada.

Los rangos de entrada del equipo determinan las magnitudes que pueden medirse.
Normalmente, el valor máximo del rango de entrada determina la máxima entrada que
puede introducirse en el equipo o sensor sin que esta sufra daños. También debe
tenerse en cuenta que en condiciones de almacenamiento o cuando no se usa, las
magnitudes del entorno o ambientales no deben superar estos valores puesto pueden
dañar al equipo. Los rangos no tienen por qué ser simétricos.

1.6.11. Impedancia de Entrada.

El concepto de impedancia debe tenerse en cuenta puesto que la mayoría de los


sensores biomédicos e instrumentos convierten magnitudes no eléctricas en tensiones o
corrientes. Por este motivo debe evaluarse el grado en que estos equipos provocan
perturbaciones en la magnitud medida. Interesa que esta perturbación sea la menor
posible y para ello normalmente se requiere que los equipos de medida tengan
impedancias de entrada lo más grandes posibles.
22
1.6.12. Histéresis.

La Histéresis se refiere a la diferencia en la salida para una misma entrada, según la


dirección en que se alcance.

1.7. Características dinámicas generales de los equipos de instrumentación


biomédica.

La mayoría de los instrumentos médicos deben procesar señales que son funciones en
el tiempo. Es por ello que se requiere considerar características dinámicas en el
instrumento.

La presencia en equipos de instrumentación de elementos que almacenan energía, hace


que la magnitud de la entrada varía con el tiempo y la evolución de la salida no es
simultánea. Todo esto se traduce en un error dinámico y en un retardo. De esta forma,
aunque no existan errores estáticos, existen errores entre el valor obtenido como
resultado de la medida y el verdadero valor de la entrada, por el hecho de ser ésta
variable con el tiempo.

Para conocer el error dinámico y la velocidad de respuesta de un sensor, transductor o


equipo de instrumentación, conviene describirlo mediante un modelo matemático simple.
Para ello se utiliza la teoría de sistemas lineales, invariantes en el tiempo y el uso de
diagramas de bloques.

Las características dinámicas de un sistema, equipo o sensor pueden obtenerse a partir


de su función de transferencia obtenida de la ecuación diferencial que modela su
comportamiento. Según el orden de esta ecuación, se puede hablar de equipos o
sensores de orden cero, de primer orden o segundo orden. No suelen utilizarse modelos
de ecuaciones diferenciales de orden superior.

Un sistema de orden cero es aquel cuya salida está relacionada con la entrada mediante
una ecuación del tipo:

Su comportamiento se mantiene constante con independencia de la frecuencia de la


entrada, de modo que su error dinámico como su retardo son nulos (Figura 1.5).

23
Figura 1.5. Función de transferencia de un sistema de orden cero.

Un sistema se dice que es de primer orden si hay un elemento que almacena energía y
otro que la disipa. La relación entre la entrada x(t) y la salida y(t) viene dada por la
ecuación:

Cuya función de transferencia correspondiente es:

Donde K = b/a, es la denominada sensibilidad estática y t = 1/a se conoce como


constante de tiempo del sistema. La Figura 1.6 muestra la función de transferencia de un
sistema de primer orden.

24
Figura 1.6. Función de transferencia de un sistema de primer orden.

Un sistema de segundo orden incluye dos elementos que almacenan energía y otros que
disipan energía. La relación entre la salida y la entrada responde a una ecuación
diferencial de segundo orden:

Donde K es la sensibilidad estática, x es el denominado coeficiente de amortiguamiento.


En la Figura 1.7 se obtiene la función de transferencia de un sistema de segundo orden.

25
Figura 1.7. Función de transferencia de un sistema de segundo orden.

1.8. Criterios de diseño.

Son muchos los factores que aceptan al diseño de instrumentos biomédicos. Los
factores que imponen restricciones en el diseño de estos equipos dependen del tipo de
instrumento a desarrollar. Sin embargo, existen algunos requisitos que pueden
generalizarse y responden a diversas categorías como señales utilizadas, entorno de
trabajo, factores económicos y médicos. Dichos factores pueden observarse en la Figura
1.8.

Conviene resaltar que cada tipo de sensor determina el equipo de procesamiento de la


señal, por lo tanto, las especificaciones de los instrumentos deben incluir bastantes más
cosas que el tipo de sensor a emplear. Para obtener el diseño final, deben establecerse
ciertos compromisos entre las especificaciones que se desean obtener. Posibles
cambios de componentes o forma de interactuar o interconectarse entre ellos, conlleva
generalmente una revisión completa del diseño sobre todo en equipos complejos. Un

26
buen diseño, suele ser el resultado de muchas horas de trabajo y de compromisos
establecidos en el desarrollo del equipo.

Figura 1.8. Proceso de diseño de instrumentos biomédicos.

1.9. Proceso de desarrollo comercial de la instrumentación biomédica.

El desarrollo de un instrumento comercial requiere de diversas fases, aumentando el


tamaño del equipo necesario a medida que el proyecto progresa. La idea original a
menudo surge de personas que trabajan en clínicas u hospitales y observan las
necesidades clínicas. Los médicos, enfermeras, ingenieros clínicos o personal de ventas
son los principales generadores de ideas. Los ingenieros industriales y personal de
mercado pasan tiempo en los hospitales observando el funcionamiento de sus productos
y posibles mejoras en el entorno de trabajo. La mayoría de las compañías disponen de
varias personas que se encargan de presentar y evaluar nuevas ideas y es fundamental
que la persona que quiere proponer una nueva idea pueda ponerse en contacto con otra
que sea capaz de entenderla y pueda analizarla mediante un estudio detallado. También
debe tenerse en cuenta la protección de las ideas mediante patentes o derechos.
27
Al principio la idea puede no estar bien definida y se necesita un análisis profundo para
describir las características del producto y sus necesidades médicas, la técnica
empleada y posibles líneas de productos y de ventas. Este estudio incluye necesidades
médicas, indicaciones de pacientes, indicaciones de personal sanitario y las
especificaciones de cómo, cuándo, y por quien debe utilizarse el equipo. Al mismo
tiempo debe incluirse una descripción de la tecnología necesaria, posibles mejoras o
modificación de componentes, sistemas necesarios de análisis y una estimación
preliminar del costo final del producto.

En un primer paso, debe diseñarse y construirse un prototipo del equipo y probar sus
cualidades. Una vez el prototipo se ha testeado y los resultados son satisfactorios puede
diseñarse el producto final.

Las especificaciones del producto deben contener una descripción de las características
del mismo. Deben incluirse características de rendimiento, interface con el usuario,
posibles pruebas o test en el entorno de trabajo, e incluso tamaño, peso y color del
instrumento. Con todos estos datos ya puede abordarse la fabricación de los equipos en
cadena.

1.10. Especificaciones generales de los equipos.

En este apartado se exponen algunas de las especificaciones más usuales de los


equipos de instrumentación.

1.10.1. Especificaciones del sensor de entrada.

Medida: magnitud física, propiedad o condición que se mide.


Medida diferencial o absoluta: cuando la medida se realiza de forma diferencial o
unipolar.
CMRR (rechazo al modo común): Establece la relación entre la ganancia diferencial y
la ganancia en modo común.
Rangos de funcionamiento: Valores de la señal de entrada posibles. El ajuste de
determinados sensores puede requerir cambios o ajustes mecánicos.
Rangos de sobrecarga: Posibles valores de la entrada que pueden tolerarse si dañar el
equipo.
Tiempo de recuperación de sobrecarga
Sensibilidad: indica la variación de la salida ante variaciones de la entrada.
Impedancia de entrada.
Principio del sensor: indica en principio de funcionamiento del sensor para captar la
magnitud a medir.
Tiempo de respuesta: El tiempo de respuesta, el coeficiente de amortiguamiento y la
frecuencia natural o de resonancia deben tenerse en cuenta en equipos o instrumentos
que respondan a ecuaciones de primer, segundo orden o superiores.

28
Respuesta en frecuencia: La distorsión de fase o de amplitud es otro factor a tener en
cuenta en función de las frecuencias de las señales que se desean medir.
Excitación del sensor: Debe especificarse los requisitos de alimentación del sensor y el
modo y magnitud necesaria para excitarlo y obtener una medida.
Aislamiento: Deben especificarse el aislamiento eléctrico u otros métodos de seguridad
del equipo.
Dimensiones físicas: El tamaño, modo de acoplamiento del sensor primario al equipo
pueden resultar parámetros de gran interés para realizar las medidas correctamente.
Cuidado y manejo especial: Algunos sensores pueden dañarse fácilmente por lo que
se especifican algunas condiciones de manejo o mantenimiento del mismo.

1.10.2. Especificaciones de Procesado de la señal.

Método de procesamiento: Los métodos y la teoría de funcionamiento deben


explicarse. Los circuitos electrónicos y el análisis y procesado que sufre la señal deben
describirse con detalle. Pueden expresarse por medio de funciones de transferencia.
Compensaciones o correcciones: Pueden requerirse ajustes o compensaciones de
falta de linealidad de los sensores, pero deben especificarse de forma clara.
Supresión del cero: Consiste en el ajuste del offset de los amplificadores para
compensar los desplazamientos de la señal.
Filtrado: Pueden realizar diversos filtrados en función de la banda de frecuencia que se
desea procesar o eliminar.

1.10.3. Especificaciones de salida.

Valores de salida: Es el margen de valores de salida que puede representar el


dispositivo de salida (pantalla, carro de cinta).
Rango de salida: Rango de valores de salida donde el funcionamiento es lineal y no se
produce saturación.
Potencia de salida: Representa la máxima potencia que se puede aplicar a una carga
para un valor específico de ésta.
Impedancia de salida:
Velocidad de representación: Representa la velocidad para representar datos del
dispositivo de salida o pantalla.
Tiempo de salida: Para equipos que no trabajan en tiempo real, determina el tiempo
que tarda el procesar una señal.
Interface: modo de transmisión o comunicación (RS-232, IEEE488).

1.10.4. Fiabilidad y posibles errores.

Exactitud: Da idea del mayor error entre el valor real y el valor medido.

29
Repetitividad: Posibles variaciones de la salida ante la misma entrada en diferentes
instantes de tiempo.
No-linealidad: Desviación del modo de funcionamiento lineal.
Susceptibilidad a interferencia: sensibilidad del instrumento a interferencia y
variaciones de las señales de entrada.
Relación señal/ruido: Es la relación entre el valor de la señal (de pico o RMS) y el
ruido.
Estabilidad: Determina posibles derivas del instrumento en función del tiempo,
temperatura, humedad.
Modo funcionamiento: Mínimas condiciones que deben cumplirse para que el equipo
funcione correctamente o que las especificaciones no se vean profundamente
alteradas.
Fiabilidad: Establece la fiabilidad del equipo y suele expresarse por medio del tiempo
medio entre fallos (MTBF).

1.10.5. Especificaciones físicas y diversas.

Requisitos de alimentación: Tensiones, frecuencia.


Circuitos de protección: Fusibles, diodos, aislantes.
Códigos y regulaciones.
Requisitos del entorno: Temperatura, humedad, altitud, radiaciones, sustancias
corrosivas.
Conexiones eléctricas y mecánicas: Compatibilidad con otros instrumentos.
Montaje: Establece si el equipo se monta solo o en “rack”.
Dimensiones.
Peso.
Materiales de construcción.
Accesorios y opciones.
Material fungible: Establece requisitos de materias fungible o consumible: papel, gel
para ultrasonidos, electrodos, productos químicos.
Condiciones de entrega: Tiempo y plazos.
Garantía.
Costo.

BIBLIOGRAFÍA

CAPÍTULO 2
30
SEGURIDAD ELÉCTRICA

Introducción

La tecnología médica ha aumentado considerablemente la seguridad de los equipos y ha


reducido los riesgos debidos al manejo y utilización. En la actualidad, en las aplicaciones
médicas los niveles de seguridad que deben reunir los sistemas de instrumentación
están normalizados. Resulta obvio que no puede asegurarse un riesgo nulo en el uso del
equipo, sin embargo, una adecuada utilización de los mismos por usuarios instruidos
minimiza los riesgos eléctricos y aumenta la seguridad del paciente.

De todas formas, el aumento de la complejidad de los dispositivos médicos y su manejo


provoca un número considerable de daños a pacientes. La mayoría de estos daños se
pueden atribuir a un uso inadecuado del equipo o falta de experiencia en su manejo. Por
lo tanto, suponiendo que el equipo puede fallar, deben desarrollarse sistemas de
seguridad lo más fiables posibles.

En este tema se pretende dar una visión del problema de la seguridad eléctrica,
estudiando de qué forma condiciona el diseño del equipo. De hecho, los pacientes de un
hospital bajo ciertas condiciones pueden ser más susceptibles al peligro de la corriente
eléctrica que una persona en su caso o trabajo, por lo que deben tomar precauciones
especiales en los equipos o instrumentos médicos. Las condiciones bajo las que se
presentan dichos problemas son difíciles de percibir por lo que hay que extremar las
precauciones. El objetivo final es comprender las medidas más importantes de seguridad
que se incorporan al diseño para minimizar el riesgo de peligro. Las fuentes de peligro
incluyen el fuego, aire, agua, productos químicos, drogas, diversos tipos de radiación, el
propio personal médico, pero en este caso se hará hincapié en el tema de seguridad
eléctrica, aunque no conviene perder de vista los demás.

Para describir los riesgos eléctricos, se estudian los efectos fisiológicos de la corriente
eléctrica, riesgos de shock producidos por el equipo y posibles sistemas de seguridad.

2.1. Efectos fisiológicos de la corriente eléctrica.

Para que la electricidad produzca efectos en el organismo, el cuerpo humano debe


convertirse en parte de un circuito eléctrico. Para que circule corriente por el cuerpo
humano deben existir al menos dos conexiones entre el cuerpo y una fuente de
alimentación o tensión externa. La magnitud de la corriente depende de la diferencia de
potencial entre las conexiones y de la resistencia eléctrica del cuerpo. La mayor parte de
los tejidos del cuerpo contienen un elevado porcentaje de agua por lo que la resistencia
eléctrica que presentan es baja y pueden considerarse como un buen conductor, no
obstante, la impedancia de la piel (epidermis) es bastante elevada (200-500K) por lo
que el cuerpo humano puede considerarse como un conductor volumétrico no
homogéneo en la que la distribución del flujo de la corriente eléctrica viene determinada
por la conductividad local del tejido.

31
Los efectos que la corriente eléctrica produce sobre el cuerpo humano dependen
fundamentalmente de los siguientes parámetros: magnitud de la corriente que circula por
el tejido, frecuencia, tiempo de exposición a la corriente eléctrica, zona por la que circula
(superficie o tejido interno). La gravedad del daño producido dependerá también del
órgano afectado.

La corriente eléctrica puede afectar al tejido principalmente de tres formas: en primer


lugar, se produce una excitación eléctrica de los tejidos excitables (nervios y músculos),
comenzando con una sensación de hormigueo o escozor que si alcanza intensidad
suficientemente elevada puede ser dolorosa y molesta. La estimulación de estos nervios
o músculos motores puede provocar contracciones y si ésta aumenta puede producirse
la tetanización del músculo. En segundo lugar, puede aparecer un incremento de la
temperatura del tejido debido a la resistencia que presenta y la energía disipada por el
mismo. Por último, el aumento de temperatura si el elevado puede provocar lesiones
(quemaduras) en el tejido. Con la corriente eléctrica domestica las quemaduras se
limitan por lo general a lesiones localizadas en los puntos de contacto o en sus
inmediaciones, lugares donde se produce mayor densidad de corriente. En los
accidentes industriales causados por alta tensión, así como en accidentes por rayos, la
energía eléctrica disipada puede provocar quemaduras que aceptan a grandes áreas del
cuerpo. En electrocirugía se utiliza la corriente concentrada procedente de un generador
de radiofrecuencia con la frecuencia de 2,5 a 4 MHz para cortar tejido o coagular
pequeños vasos sanguíneos.

El órgano más susceptible a la corriente eléctrica es el corazón. Un estímulo que


tetanice el corazón provoca la contracción completa del miocardio que detiene la acción
de bombeo del corazón e interrumpe la circulación sanguínea. Si la circulación no se
restablece en pocos minutos, en primer lugar, se lesiona el cerebro y luego se produce
la muerte debido a la falta de aportación de oxígeno a los tejidos cerebrales. No
obstante, si la corriente tetanizante se elimina al cabo de poco tiempo y las lesiones
producidas no son irreversibles, el latido del corazón se reanuda de forma espontánea.
Una corriente de intensidad más baja que excite sólo parte de las fibras musculares del
corazón puede ser más peligrosa que una corriente suficiente para tetanizar el corazón
entero. Esta excitación parcial puede cambiar las vías eléctricas de propagación en el
miocardio desincronizando la actividad del corazón. Este fenómeno en el que el corazón
pierde su sincronismo se denomina fibrilación. La fibrilación ventricular es la causa que
produce la mayoría de las muertes en los accidentes eléctricos.

También se puede producir parálisis respiratoria si los músculos del tórax se tetanizan
por efecto de una corriente que circule a través del pecho o a través del centro de control
de la espiración en el cerebro.

Son muchos los factores que influyen en la magnitud de la corriente eléctrica necesaria
para producir un efecto fisiológico concreto en una persona.
A continuación, se comentan los efectos fisiológicos que se producen en el cuerpo
humano en función de la magnitud de la corriente eléctrica que circula a través de él
suponiendo que se aplica una diferencia de potencial entre las extremidades superiores

32
(las dos manos). En la Figura 2.1 se muestra los valores aproximados de la corriente y
los efectos que producen para un tiempo de exposición de 1 a 3 segundos y varios
niveles de magnitud alterna de 60 Hz aplicada al exterior del cuerpo de una persona de
70 Kg aproximadamente.

(cont...)

33
Figura 2.1.- Efectos fisiológicos de la electricidad.

2.1.1. Umbral o nivel de percepción.

Se define como nivel de percepción como la intensidad mínima de corriente que el ser
humano es capaz de detectar. Este valor varía en función del sujeto y de las condiciones
de medida y oscila entre 10mA y 0.5 mA para valores eficaces de corriente alterna a 60
Hz y entre 2 y 10 mA para corriente continua.

34
2.1.2. Corriente de pérdida del control motor.

Para niveles superiores de corriente, los nervios y músculos pueden excitarse y provocar
contracciones que pueden llegar a ser dolorosas ocasionando una pérdida del control
motor. Los valores de corriente que producen pérdida de control motor oscilan entre 6 y
16 mA

2.1.2. Parálisis respiratoria, dolor y fatiga.

Para valores más elevados de corriente, entre 18 y 22 mA aparecen contracciones


involuntarias de los músculos respiratorios, provocando situaciones de asfixia si la
corriente no se interrumpe. Contracciones fuertes involuntarias de los músculos y
estimulación de los nervios pueden provocar dolores y causar fatiga si permanecen
expuestos a la corriente eléctrica durante largo tiempo.

2.1.4. Fibrilación ventricular.

Corrientes mayores pueden dar origen a pérdidas de sincronismo de las diferentes fibras
que constituyen el músculo cardiaco. Una vez se desincroniza la actividad ventricular
(fibrilación ventricular), el proceso no se detiene, aunque desaparezca la causa que lo
provocó, el corazón deja de funcionar como bomba ocasionando una parada en la
circulación sanguínea y la muerte súbita si no se consigue la reversión inmediata. Puede
volverse a recuperar la actividad normal del corazón si se aplica un pulso de gran
corriente durante un corto intervalo de tiempo que despolarice todas las células del
músculo cardiaco. El equipo diseñado para este fin se denomina desfibrilador. El nivel de
corriente que puede producir fibrilación varía entre 75 y 400 mA.

2.1.5. Contracción del miocardio sostenida.

Cuando la corriente es suficientemente elevada, el músculo entero del corazón se


contrae. Aunque el corazón deja de latir mientras la corriente se aplica, cuando esta
cesa, vuelve el ritmo normal. El margen de corriente que producen una contracción
sostenida del miocardio oscila entre 1 y 6 A.

2.1.6. Daños físicos y quemaduras.

Muy poco se conoce sobre los efectos de la corriente cuando ésta excede de 10A,
sobretodo en corriente de corta duración. La resistencia que ofrece el cuerpo humano
causa quemaduras, principalmente sobre la piel y en los puntos de entrada de la
corriente, puesto que la corriente de la piel es muy elevada y es donde se disipa mayor
potencia.

2.1.7. Parámetros susceptibles que afectan los efectos fisiológicos.

35
Los efectos fisiológicos vistos en el numeral anterior, producidos por la corriente
eléctrica, dependen de una serie de parámetros que se explican a continuación.

2.1.7.1. Variabilidad del umbral de percepción y corriente de pérdida del control


motor.

En la Figura 2.2 se muestra la variabilidad del umbral de percepción y de la corriente de


pérdida del control motor para hombres y mujeres. En dicha figura se muestra el
porcentaje de personas que perciben diferentes valores eficaces (rms) de la corriente en
miliamperios. Puede observarse que los datos obtenidos pueden interpolarse por una
recta puesto que se observa que sigue una distribución gaussiana. Para los hombres, el
valor medio del umbral de percepción es de 1.1 mA, para las mujeres, este valor medio
se estima en 0.7 mA. Se observa que el valor mínimo de este umbral de percepción se
sitúa alrededor de 0.5 mA. Es lógico pensar que estos valores dependen de la
impedancia eléctrica que presenta el cuerpo humano, pudiendo llegarse a la conclusión
que la conductividad del cuerpo humano es mayor en las mujeres debido, entre otras
causas, a que el porcentaje de agua en ellas es mayor.

El uso de geles que reducen la impedancia piel-electrodo reduce la impedancia del lazo
de corriente de forma que el nivel de percepción disminuye. Utilizando geles en
electrodos de ECG, el valor medio del umbral de percepción se reduce a solo 83 mA en
un rango de 30-200 mA.

Rango
Percepción Corriente
Pérdida de
Control
Umbral de Corriente
para mujer
Percepción de
10.5 mA
para hombre Pérdida
1.09 mA de
valor medio Control
para

Umbral Mínimo
6 mA
Umbral Mínimo
0.5 mA Umbral Mínimo
9.5 mA

Corriente de Corriente de Pérdida


Percepción de
en mA (rms) Control n mA (rms)

Figura 2.2.- Rango de los umbrales de las corrientes de percepción y de pérdida de


control.
2.1.7.2. Frecuencia de la corriente.

36
En la Figura 2.3 puede observarse la relación existente entre la corriente de pérdida de
control y la frecuencia de la corriente. Desafortunadamente, el valor mínimo de la
frecuencia de la corriente de pérdida de control es la de las líneas de potencia
comerciales (60 Hz). Para frecuencias por debajo de 10 Hz, el valor mínimo de la
corriente de pérdida de control aumenta probablemente debido a que los músculos
pueden relajarse en ciertos intervalos del ciclo de la corriente. Este valor de umbral de la
corriente de percepción se mantiene más o menos constante entre 10 Hz y 100 Hz,
incrementándose de nuevo para valores superiores a 100 Hz.

Corriente de
Pérdida de
Control, mA
(rms)

Curvas
Porcentuales

Corriente
Peligrosa

Umbral de Pérdida de Control

Frecuencia en Hz

Figura 2.3.- Curva Corriente de Pérdida de Control - Frecuencia.

2.1.7.3. Duración de la exposición a la corriente eléctrica.

37
Un único estímulo o pulso eléctrico puede producir una fibrilación ventricular si se aplica
durante el periodo vulnerable de repolarización del corazón que corresponde a la onda T
del ECG.

La Figura 2.4 muestra los umbrales de los valores de fibrilación para una corriente de 60
Hz aplicada a las extremidades de diversos animales. Se observa que el umbral de
fibrilación aumenta rápidamente para intervalos inferiores a 1 s y disminuye conforme
aumenta el tiempo de exposición.

Corriente de
Fibrilación
Derivación III
mA (ms), 60 Hz

Derivación III

 94 Kg Caballo Pony
+ 12 Kg Perro
10 Kg Perro
o 7.5 Kg Perro
 6.0 Kg Perro
× 5.0 Kg Perro

Duración de la descarga (seg)

Figura 2.4. Corrientes umbrales para producir fibrilación ventricular en animales a 60 Hz.
2.1.7.4. Peso del cuerpo humano.

38
Diversos estudios que utilizan animales de diversos tamaños muestran que el umbral de
fibrilación aumenta conforme aumenta el peso del cuerpo. En la Figura 2.5, puede
observarse que existe una gran dispersión de los datos incluso para un mismo tipo de
animal. Estos resultados requieren de más estudios puesto que pueden extrapolarse
para obtener o conocer los umbrales de fibrilación de los seres humanos.

Mínima
corriente
de
fibrilación
mA (rms)

Peso del
cuerpo (Kg)

Figura 2.5.- Mínima corriente de fibrilación en función del peso.


2.1.7.5. Puntos de entrada de la corriente eléctrica.

39
Cuando la corriente se aplica entre dos puntos cualesquiera del cuerpo humano, sólo un
pequeño porcentaje de la energía o corriente total a través del corazón como se observa
en la Figura 2.6. De esta forma, pueden darse básicamente dos tipos de situaciones: el
macro shock y el micro shock. El macro shock está relacionado con la circulación de
corriente en la superficie corporal (Figura 2.6.a). El microshock se refiere a aquellos
casos en los que, al tener un catéter conectado al corazón, una pequeña corriente puede
ocasionar grandes daños al paciente e incluso la muerte (Figura 2.6.b). Diversos
experimentos muestran que el rango de corrientes que producen fibrilación en casos de
microshock es de 80 a 600 mA. El límite de seguridad ampliamente aceptado para
prevenir micro shocks es de 10 mA.

Macroshock Microshock

Corriente
de Corriente de fibrilación
superficie ac
ac

a) b)

Figura 2.6. Efectos de los puntos de entrada en la distribución de la corriente por el


cuerpo.

2.2. Distribución de potencia eléctrica.

La energía eléctrica es necesaria en las instalaciones de hospitales o servicios de


cuidados o asistencia no sólo para el funcionamiento de los instrumentos médicos, sino
también para uso de iluminación, aplicaciones de mantenimiento, confort de los
pacientes (televisión y otros), relojes, botones de emergencia o llamada a enfermeras y
otros equipos eléctricos.

Un primer paso para aumentar la seguridad es el control de las tomas de potencia o de


corriente y toma de tierra en el entorno del paciente. En este apartado se van a
comentar algunos métodos de distribución de líneas de potencia en los servicios de

40
cuidados de la salud. Posteriormente se estudiarán diversas situaciones peligrosas que
pueden ocasionar peligros de Macroshock y Microshock.

Las Figuras 2.7.a y 2.7.b muestran respectivamente un diagrama eléctrico y un esquema


físico simplificados de un sistema de distribución de energía eléctrica. La energía se
distribuye desde una subestación principal al hospital normalmente mediante cables
subterráneos que transportan alta tensión (4.800 V). Por medio de un transformador
reductor con toma central se obtiene una alimentación de 230 a 240 V. El secundario del
transformador generalmente tiene toma intermedia o toma central y se conecta a un
anclaje de toma de tierra. A partir de aquí se desarrolla la instalación eléctrica del
edificio. Conviene resaltar que es interesante que los equipos tengan toma de tierra para
derivar posibles derivaciones a éstos por parte de la red eléctrica. En las instalaciones
modernas, todos los enchufes disponen de un tercer contacto denominado toma de
tierra del equipo y que está unida a masa (tierra) en la subestación del edificio bien
mediante el conducto de acero galvanizado que protege a los otros conductores o bien
mediante un conductor de masa distinto. El uso del conducto como conector a masa
puede presentar ciertos peligros debido a la corrosión o un aumento de la resistencia del
conducto hasta un nivel peligroso. Por este motivo las normas NEC (1990) en E.E.U.U.
exigen un sistema de masas equipotenciales en los lugares donde haya pacientes
susceptibles a la electricidad.

Fusible Enchufe
Circuito protección
Activo

Tierra

Neutro
4800 V
Subestación Tierra

Fusible
Circuito protección

Enchufe

Figura 2. 7.a. Diagrama eléctrico simplificado de la distribución de energía eléctrica.

41
Figura 2.7.b. Esquema físico simplificado de la distribución de energía eléctrica.

2.2. Entorno eléctrico de los pacientes.

El peligro de shock o descarga eléctrica existe entre dos conductores entre los que
exista una diferencia de potencial (115-120 V). En las áreas generales de los hospitales
(pasillos, zona de recepción) los pacientes rara vez entran en contacto con equipos
eléctricos, sin embargo, en las áreas destinadas a cuidados (habitaciones, quirófano,
UCI, urgencias, imagenología) los pacientes entran en contacto con los equipos
eléctricos por lo que el riesgo de descarga eléctrica se incrementa. Por esta razón es
necesario que los equipos médicos tengan toma de tierra para minimizar estos riesgos y
de esta forma conectar los equipos a tierra.

2.3. Sistemas de alimentación aislados.

Aunque los equipos estén bien conectados a toma de tierra, pueden existir otras
descargas debido al contacto accidental de algún cable eléctrico o falla de la conexión a
tierra. Por ello, se requieren sistemas que aíslen eléctricamente la red eléctrica del
paciente y de esta forma se rompa el bucle de corriente minimizando así los peligros de
descarga. El aislamiento eléctrico se realiza principalmente por medio de un
transformador. En sistemas de medida, como pueden ser amplificadores se pueden
42
utilizar también amplificadores de aislamiento que rompen el bucle de corriente entre la
captación de un Biopotencial y la transmisión, procesamiento y amplificación del mismo.

2.4. Sistemas de alimentación de emergencia.

En las unidades de cuidados intensivos se requieren sistemas de alimentación de


emergencia. Estos sistemas suelen entrar en funcionamiento un cierto tiempo después
de que se produzca una falla en el sistema normal de abastecimiento de corriente
eléctrica. Están constituidos por sistemas de alimentación ininterrumpida (S.A.I) y
pueden existir diversos tipos:

 Sistemas de seguridad estándar (iluminación, servicios de alarma)


 Sistemas de seguridad críticos (alimentación de las áreas de cuidados intensivos o
quirófanos).

2.5. Riesgo de descargas (Shock) debidas al equipo eléctrico.

Las descargas eléctricas pueden aceptar a diversos órganos en función del camino que
recorre ésta al atravesar el cuerpo humano. El órgano más susceptible a la corriente
eléctrica es el corazón puesto que pueden producirse fibrilaciones y conllevar a la
muerte del paciente. Según del camino recorrido por la corriente pueden darse dos
situaciones: macro shock y micro shock.

2.5.1. Riesgos de macro shock.

Para exponerse al peligro de un macro shock eléctrico, una persona debe entrar en
contacto simultáneamente con ambos conductores eléctricos, el activo y el neutro o dos
activos a diferentes potenciales. No obstante, como el conductor neutro está conectado
a masa, existe el mismo peligro entre el conductor activo y cualquier objeto conductor
que de alguna manera esté conectado a masa. Entre estos objetos pueden citarse
radiadores, cañerías de agua, estructuras metálicas del edificio entre otros. En el diseño
del equipo eléctrico, debe prestarse especial atención en impedir que el personal pueda
hacer contacto accidental con el cable activo utilizando para ello materiales aislantes
adecuados y conservando las distancias de seguridad entre los conductores y el chasis
del equipo para minimizar posibles acoples capacitivos. Con todo esto, puede producirse
un contacto accidental entre el cable activo y el chasis de un equipo debido a una
pérdida de aislamiento, al deterioro y a averías mecánicas. Si el chasis no está
conectado a masa, cualquier persona que lo toque y esté conectado a masa a través de
otro conductor estará expuesta a un grave peligro de macro shock como lo muestra la
Figura 2. 8.a.

43
Figura 2. 8.a. Riesgos de macroshock.

La finalidad del contacto de toma de tierra del equipo en el enchufe de la pared es


reducir el peligro de macro shock. De esta forma se dispone de una conexión a tierra
para el chasis del equipo (Figura 2.8.b). Cuando se produce un contacto accidental entre
el conductor activo y el chasis, la corriente puede retornar a masa a través de esta
conexión equipo-tierra sin crear un peligro eléctrico. Así, la integridad de la conexión
equipo-tierra es de gran importancia. Una interrupción de esta continuidad debido a un
cable o una clavija de masa rotos o al empleo de un adaptador de tres clavijas de
contacto a dos (con una clavija al aire) destruyen por completo su valor protector.
Aunque la conexión a masa no se interrumpa por completo, sólo con que presente una
resistencia mayor alrededor de un ohmio, puede elevar el potencial de la caja hasta un
valor tal que se produzca un peligro de macro shock.

La alta resistencia de la piel seca y la distribución espacial de la corriente a través del


cuerpo cuando una persona recibe una descarga eléctrica son factores que disminuyen
el peligro de fibrilación ventricular debido a macro shock. La resistencia de la piel limita
la corriente que fluye a través del cuerpo. El valor de esta resistencia varía en función de
la cantidad de agua y de aceite presente y al mismo tiempo, es inversamente
proporcional al área de contacto.

La capa externa de la piel llamada epidermis presenta una gran resistencia del orden de
15 K a 1 M. La piel mojada reduce su resistencia hasta el 1% de la piel seca. Al
contrario, la resistencia de los tejidos internos o de las capas internas de la piel o dermis

44
presentan valores menores de 500. Cualquier proceso que reduzca o elimine la
resistencia de la piel aumenta la vulnerabilidad de las personas ante el macro shock. Por
lo tanto, los pacientes que se encuentran en cuidados intensivos, sujetos a
monitorización o conectados a cualquier equipo son más susceptibles a un macro shock
que la población general.

2.5.2. Riesgos de microshock.

Aunque el riesgo de macro shock sólo se produce por lo general como consecuencia de
una pérdida del aislamiento, se pueden crear riesgos de microshock en equipos con
aislamiento en perfecto estado. El sólo hecho del acople capacitivo entre el cable activo
y la caja del equipo eléctrico puede crear corrientes de magnitud suficientemente grande
como para presentar un riesgo de microshock. Por ejemplo, una tensión de 110 V y una
capacidad de sólo 200 pF producen una corriente de 10 mA. Por lo tanto, muchos
electrodomésticos, lámparas y aparatos de diagnósticos o terapia presentan fugas
capacitivas de corriente que sobrepasan los 10 mA. Aunque estos equipos son
perfectamente seguros para trabajar en condiciones normales, pueden crear un riesgo
de microshock para pacientes susceptibles a la electricidad. En la figura 2.9 se muestra
un ejemplo de riesgo de microshock en el que un paciente tiene un catéter insertado por
vía intravenosa. El catéter forma parte de un transductor conectado a un monitor para
visualizar ciertos parámetros y a su vez éste a la red eléctrica. Esta disposición
establece una conexión a masa del corazón a través del catéter.

Figura 2.9. Riesgo de micro shock.

45
Bajo estas condiciones, se crea un riesgo de micro shock mediante cualquier contacto
físico entre el paciente y un dispositivo que no esté puesto a masa y que tenga una
corriente de fuga mayor de 10 mA. En la Figura 2.9 el paciente está tocando el aparato
directamente, pero este contacto lo puede establecer también otra persona que toque al
paciente y al aparato a la vez. Las principales causas que pueden provocar situaciones
de riesgo de microshock son las siguientes:

2.5.2.1. Defecto o rotura del conductor de puesta a tierra.

De esta forma, gran parte de la corriente por acople capacitivo entre los cables
conductores y el chasis que se deriva entre el chasis y tierra lo hace a través del
paciente, en concreto, a través del corazón y del catéter como se muestra en la Figura
2.10.a y b. La mejor forma de solucionar este problema es aislar eléctricamente al
paciente de forma que no exista un camino de cierre de la corriente a tierra a través del
sujeto. Ello puede conseguirse mediante la utilización de sistemas de aislamiento a la
entrada de equipos de medida como amplificadores de aislamiento.

Figura 2.10. Defecto o rotura del conductor de puesta a tierra.

2.5.2.2. Superficies metálicas cercanas al paciente y no conectadas a tierra.

Otro caso de riesgo sucede cuando el paciente toca un aparato o dispositivo que tiene
corriente de fugas. Estas corrientes pueden cerrarse a tierra a través del catéter y del
equipo de medida. El mismo caso se produce si es otra persona la que facilita esta
46
conexión como se muestra en la Figura 2.11 donde una falla en el conductor de tierra
que conecta la superficie metálica de la cama con tierra. Como consecuencia de esta
falla, la cama adquiere un potencial distinto de cero y cuyo nivel depende del
acoplamiento capacitivo entre la línea de red y la cama. Una enfermera que manipula un
catéter intracardiaco establece una derivación entre la cama y éste último creando una
vía de paso a través de la enfermera y el paciente. Es posible que la corriente de fugas
sea muy inferior al nivel de percepción de la enfermera y sin embargo, puede ser
suficientemente grande para provocar un microshock al paciente. La mejor solución para
evitar este riesgo es utilizar equipos con entrada aislada y al mismo tiempo conectar
todas las partes metálicas de los diversos aparatos y accesorios a tierra.

Figura 2.11. Superficie no conectada a tierra.

2.5.2.3. Equipos conectados a diferentes potenciales de masas.

Puede suceder que si no se dispone de un equipo de masas equipotenciales existen


diferentes valores de masa para diferentes equipos, de esta forma si uno de los equipos
se pone en contacto con un catéter y otro equipo se conecta al paciente como pueden
ser la monitorización del ECG y de la presión sanguínea a través de un catéter, la
diferencia de tensiones entre masas puede dar origen a peligro de microshock como se
muestra en la Figura 2.12. La normativa NEC (National Electrical Code) regula estos
47
problemas y establece que la diferencia de potencial entre las masas de dos equipos no
debe superar los 500 mV en áreas generales y los 40 mV en áreas de cuidados bajo
condiciones normales de funcionamiento.

500 mV entre tierras


del hospital

Monitor
ECG

Fallo conexión
a tierra
Cama Corazón

Catéter de
Corriente microshock > 10 mA Flujo

Tierra Corriente fallo tierra > 5 A


Hospital
Sensor Monitor
derivado presión
a tierra Arterial

Figura 2.12. Equipos conectados a diferentes potenciales de masa.

2.5.2.4. Equipos alimentados a baterías.

Los equipos alimentados con baterías y por lo tanto aislados eléctricamente de tierra,
también pueden presentar problemas o riesgos en el paciente. Por ejemplo, en la
utilización del Electro bisturí, las corrientes de alta frecuencia pueden acoplarse
capacitivamente con el chasis y si un operador lo toca, las corrientes podrían cerrarse a
tierra a través de él. Por lo tanto, para solucionar este problema, todas las partes
metálicas externas (chasis) de los sistemas a baterías deben también unirse a tierra.

Para que produzca un riesgo o descarga de microshock hace falta una conexión
eléctrica directa del corazón con el exterior del cuerpo. Los catéteres cardiacos para
diagnóstico o para marcapasos se emplean en pacientes que tengan una afección
cardiaca. En tales pacientes, la fibrilación ventricular ocurre a menudo como
consecuencia de la enfermedad. Esto explica que el riesgo de microshock pasa
48
inadvertido durante un largo periodo de tiempo y no pueda realizarse una estimación
muy concreta del número de accidentes que puedan ocurrir debidos a esta causa.

Aunque en la mayor parte del hospital o del centro sanitario se requieren sólo las
precauciones de seguridad normales para la prevención de riesgos de macro shock,
también deben tomarse medidas especiales en aquellos lugares donde haya pacientes
susceptibles a la electricidad. Estos lugares incluyen unidades coronarias, unidades de
cuidados intensivos, quirófanos o salas donde se pueda realizar cirugía torácica. Todo lo
expuesto anteriormente hace que se deban extremar las precauciones tanto en el diseño
del equipo de medida como en su instalación.

2.5.3. Circuitos eléctricos equivalentes.

Los ejemplos vistos anteriormente pueden modelarse matemáticamente y estudiar los


posibles efectos y daños que puedan ocasionarse.

2.5.3.1. Defecto o rotura del conductor de puesta a tierra.

En la Figura 2.13 puede observarse dos situaciones diferentes de riesgo de micro shock
donde existe un defecto o rotura de la puesta a tierra, así como sus circuitos eléctricos
equivalentes. Puede observarse que para una tensión de red de 120 V, y una capacidad
parásita de 2.500 pF pueden originarse corrientes de fuga de 110 mA considerando que
la resistencia de la piel es de 100 K y la del cuerpo 500 .

La corriente eléctrica puede calcularse de la siguiente manera con la ecuación mostrada:

49
El paciente toca
Marco
el riel
Riel metálico de ventana
la cama metálico
Cable
Cables de Riel metálico de
electrodo
medida la cama
s
Asistente

Marcapasos Corazón
externo
Cama
Corazón
El paciente
toca
la cama
conectada a Motor cama
tierra

Rotura de la Rotura de la
conexión a tierra conexión a tierra

Fugas
2500 pF
Activo

Neutro

Figura 2.13. a) Microshock provocado por catéter en el corazón. b) Otra situación de


microshock. c) Circuito equivalente para a). d) circuito equivalente para b).

2.5.3.2. Equipos conectados a diferentes potenciales de masas.

La Figura 2.14 muestra el riesgo de microshock cuando no existen masas


equipotenciales. La corriente que circula por la masa general del hospital puede alcanzar
los 5 A por lo que suponiendo que la resistencia del cable de masa puede ser de 0.1 ,
pueden aparecen 500 mV entre diferentes masas de distintos equipos. Suponiendo que
la resistencia del catéter puede ser 50 K y la del cuerpo de 300  puede observarse
que se superan los 10 mA del límite de seguridad.

50
a)

b)

Figura 2.14. a) Riesgo de microshock debido a la existencia de equipos conectados a


diferentes potenciales de masa. B) Circuito equivalente.
2.5.3.3. Acople capacitivo en sistemas de alimentación aislados.

51
En la Figura 2.15 puede observarse las capacidades parásitas que pueden aparecer
entre los cables de alimentación y el chasis del equipo que pueden provocar riesgos de
micro shock. Considerando que CA y CB representan las capacidades parásitas del
monitor de ECG y equipo de medición y CS las capacidades parásitas entre los
conductores de la fuente de alimentación. En el circuito 2.15.b se ha representado el
circuito equivalente de la figura 2.15.a donde se supone que la resistencia del paciente
es 500 , CA + CS es 3000 pF y las diferencia entre CB1-CB2 es 1500 pF. En este
caso, la corriente que circula por el corazón es aproximadamente 50 mA, superando los
límites de riesgo de micro shock.

Figura 2.15. Acople capacitivo del sistema de alimentación sobre el paciente. Circuito
equivalente. El monitor de aislamiento de línea también puede añadir una capacidad en
paralelo con CA y CB.
2.7. Clasificación de los equipos biomédicos en relación con la seguridad.

52
Cuando se desea adquirir o diseñar un equipo biomédico, no sólo deben tenerse en
cuenta especificaciones relacionadas con el objetivo de la medida a realizar, de acuerdo
a lo tratado en el numeral 1.5 del capítulo primero, sobre la Norma Colombiana de
Clasificación de Instrumentos Biomédicos, (Decreto 4725 del 2005 del Ministerio de
Protección Social), sino también que desde el punto de vista de la seguridad debe
evitarse o minimizarse el peligro de descarga eléctrica o choque eléctrico por parte del
paciente o del personal que pueda utilizarlo o entrar en contacto con él. No obstante,
dependiendo de la aplicación que se quiera dar al equipo existen diversos tipos de
protecciones y distintos niveles de seguridad.
Son numerosos los organismos, instituciones y normas que se dedican a establecer los
niveles de seguridad y comprobar que éstos se cumplen antes de homologarlos y poder
ponerse en el mercado. Entre estas instituciones pueden citarse: Asociación Española
de Normalización y Certificación (AENOR), Comisión Electrotécnica Internacional (CEI),
Organización Internacional de Normalización The Electrical And Electronics Engineers,
Inc. (IEEE).

Basándose en la clasificación introducida por las normas de la Comisión Electrotécnica


Internacional (CEI), pueden realizarse la siguiente clasificación para los equipos médicos
según su capacidad de generar descargas eléctricas:

2.6.1. Según la protección utilizada.

Clase I: Aquellos equipos en los que la protección no se obtiene sólo del aislamiento
básico, sino que se incluyen precauciones auxiliares, de forma que se dispone de una
conexión de las partes conductoras accesibles al conductor de tierra de forma
permanente, para que no puedan estar a tensión elevada en caso de fallo de
aislamiento.

Figura 2.14. Equipo de clase I. En trazo grueso lo que caracteriza a esta clase. B)
Circuito equivalente. Z3 er es la impedancia del tercer conductor. La protección de esta
clase I índice sobre este parámetro.
Clase II: Aquellos en los que la protección no recae sólo sobre el aislamiento básico,
sino que se dispone de un doble aislamiento o aislamiento reforzado, no existiendo
53
provisión de una puesta a tierra de seguridad. Existen tres tipos generales de equipos de
esta clase: los que incorporan una cubierta aislante, los de cubierta metálica y los
mixtos. Una precaución que el fabricante debe tener en esta clase de equipos es la de
no conectar condensadores al chasis desde la alimentación con el propósito de disminuir
el nivel de interferencias que el equipo capto o emita. Ello disminuiría el doble
aislamiento y en consecuencia la protección.

Figura 2.15. a) Equipo de Clase II. En rayado lo que caracteriza a este equipo. B)
Circuito equivalente. La protección de la clase II incide sobre el parámetro de la
impedancia de aislamiento.

Clase III: Aquellos equipos en los que la protección se basa en alimentar a tensiones
muy bajas de seguridad, no generándose tensiones mayores que ésta en el equipo.

Figura 2.16. a) Equipo de clase III. En trazo negro lo que caracteriza a estos equipos. B)
Circuito equivalente. La protección de la clase III incide en el parámetro de la tensión de
alimentación.
Equipos con alimentación interna: Este tipo de equipos no proveen ninguna conexión
eléctrica desde el exterior a la fuente interna en funcionamiento normal. Es decir, estarán
alimentados a baterías o pilas.

54
2.6.2. Según el nivel de protección.

Tipos B: Son todos aquellos equipos de las clases I, II, III o con alimentación interna que
provean un adecuado grado de protección respecto a corrientes de fugas y fiabilidad de
la conexión de tierra (si es el caso). Según la norma CEI, deberán ser equipos tipo B
todos aquellos equipos de uso médico que no tengan una parte directamente aplicada al
paciente.

Tipo BF: Aquellos de tipo B con la entrada o parte aplicada al paciente aplicado al
paciente mediante circuitos flotantes. Según la norma CEI, deberán ser equipos tipo BF
todos aquellos equipos que tengan una parte aplicada al paciente.

Tipo CF: Aquellos equipos de las clases I, II o alimentados internamente que permitan
un alto grado de protección en relación con corrientes de fugas y con entrada flotante.
Según la norma CEI, deberán ser equipos tipo CF todos aquellos en que se pueda
establecer un camino directo al corazón del paciente.

Tipo H: Aquellos de las clases I, II, III o alimentados internamente que provean
protección frente a descargas eléctricas comparables a las que se obtienen en los
electrodomésticos.

2.7. Tipos de precauciones y límites en el diseño de equipos.

Del estudio realizado sobre riesgos de los pacientes puede observarse que existen dos
métodos principalmente para protegerlos y aumentar su seguridad. De esta forma
pueden establecerse dos principios en cuanto a las precauciones que deben tenerse en
cuenta a la hora de diseñar y posteriormente utilizar un equipo: principio de aislamiento
del paciente y principio de equipotencialidad.

El principio de aislamiento del paciente tiene como objeto evitar que se pueda cerrar
cualquier lazo de corriente a través del paciente, manteniéndolo completamente aislado.

Por otro lado, el principio de equipotencialidad tiene como objetivo que los equipos que
pueden entrar en contacto con el paciente no puedan tener una diferencia de potencial
entre masas superior a 40 mV en las zonas de cuidados (cuidados intensivos,
quirófanos, habitaciones) o 500 mV en las áreas generales.

2.7.1. Cubiertas y protecciones.

El equipo se deberá construir de forma que exista una protección adecuada contra el
contacto accidental con las partes sometidas a tensión. Esta protección deberá
mantenerse durante el funcionamiento normal del equipo, en caso de cambio de
ubicación o apertura de cubierta o tapas para las que no se requiera ningún tipo de
herramienta.
2.7.2. Aislamiento e impedancias de protección.

55
Las partes del equipo aplicadas al paciente deberán aislarse de las partes sometidas a
tensión y en particular de la red eléctrica. Nunca se permitirán mayores fugas que las
correspondientes a un primer fallo. Las formas en las que esto se puede conseguir son
variadas y entre ellas pueden citarse: aislamiento básico y puesta a tierra, cubriendo la
parte del equipo aplicada con un conductor a tierra, separando la parte aplicada del
equipo con otro circuito de puesta a tierra, por doble aislamiento, utilizando impedancias
de protección colocadas en los sitios adecuados y uso de amplificadores de aislamiento.

Para romper posibles lazos de corriente, en la actualiza se utilizar amplificadores de


aislamiento en los circuitos de captación y procesado de los biopotenciales. Este tipo de
componentes dispone de alimentaciones independientes a cada lado de la barrera de
aislamiento (Figura 2.17), aunque algunos llevan incorporados conversores DC-DC y
sólo utilizan una alimentación generando internamente una tensión aislada para
alimentar la otra parte de la barrera de aislamiento. Las tres principales características
de los amplificadores de aislamiento son la alta impedancia de la barrera de aislamiento
entre las etapas de entrada y de salida (>10 MS), alto voltaje de aislamiento (>1000 V) y
alta relación de rechazo de modo común (CMRR).

(cont...)

56
Figura 2.17. Amplificadores de aislamiento.

Existen tres tipos de amplificadores de aislamiento principalmente en función del


elemento que utilizan para lograr el aislamiento: aislamiento por transformador (Figura
2.18), aislamiento óptico (Figura 2.19) y aislamiento capacitivo (Figura 2.20).

Figura 2.18. Aislamiento por transformador.

57
Figura 2.19. Aislamiento óptico.

Figura 2.20. Aislamiento capacitivo.

La Figura 2.21 muestra un esquema de un preamplificador de electrocardiograma (ECG)


aislado por transformador.

58
Figura 2.21. Esquema de un preamplificador de electrocardiograma (ECG).

2.7.3. Puesta a tierra y equipotencialidad.

Las partes conductoras accesibles del equipo deberán estar puestas a tierra. En
aquellos equipos con partes conductoras accesibles o que sean de clase II, III,
alimentación interna o bien del tipo CF se dispondrá de un terminal de equipotencialidad
que permite conectar entre sí todos los equipos que rodean al paciente. Un principio
importante en el conexionado del equipo a la red es el de no utilizar extensiones del
cable de alimentación ya que se puede aumentar la resistencia del tercer electrodo.
Unos límites adecuados de resistencia máxima en relación con el tercer conductor de
tierra son los siguientes: tanto para equipos que incorporan cable de conexión a red
como aquellos que no lo utilizan, la resistencia máxima entre el terminal de protección de
tierra del equipo y cualquier otra parte conectada a él debe ser inferior a 0.1 S. Para los
equipos con cable flexible, la resistencia máxima entre el terminal de tierra del enchufe a
la red y cualquier parte del circuito equipo conectada a él deberá ser inferior a 0.2 S.

Las medidas de seguridad empleadas con mayor frecuencia tienen como finalidad
asegurar en primer lugar que no puedan existir diferencias de potencial entre los objetos
que pueden entrar en contacto con el paciente y que los pacientes no puedan entrar en
contacto con ningún objeto puesto a masa o conductor. En segundo lugar, se toman
medidas para reducir las corrientes de fuga por debajo de 10 mA para disminuir el riesgo
de microshock en el caso de que algún equipo perdiese la integridad de la masa o
puesta a tierra del equipo.

Para asegurar que todos los equipos u objetos conductores cercanos al paciente estén
al mismo potencial, hay que emplear un sistema de masas equipotenciales, tal y como
59
exige la reglamentación al respecto (National Electrical Code), en todas las zonas donde
haya pacientes susceptibles a la electricidad. En los ejemplos de la Figura 2.22 se
muestran que todas las tomas de corriente de una habitación están agrupadas en un
panel. Los contactos de toma de tierra del equipo que hay en las tomas de corrientes
están unidos por una línea de masa. Además, todos los equipos u objetos metálicos se
conectan a esta línea (masa de referencia) mediante cables de conexión
independientes. Este sistema garantiza que todos los objetos que puedan entrar en
contacto con el paciente estén al mismo potencial con tal que las conexiones
individuales de toma de tierra de todos los equipos eléctricos se encuentren intactas.

Figura 2.22. Principios de


un sistema equipotencial
de masas en una
habitación.

2.7.4. Corrientes
de fuga.

Aunque se disponga de
un buen aislamiento
pueden producirse
derivas de corrientes
denominadas corrientes de
fuga que, aunque en un
principio su magnitud
puede considerarse
ridícula pueden ocasionar graves riesgos al paciente como pueden ser el caso de
riesgos de microshock. A continuación, se describen algunos de los motivos por los que
puede producirse corrientes de fuga:

a) Corriente de fuga a tierra: Es la corriente que se mide a través del conductor de


protección o puesta a tierra desde la red, Figura 2.23.

60
Figura 2.23. Corriente de fugas a tierra.

b) Corriente de fugas del chasis: Es la que fluye del chasis a través de un camino
conductor a tierra u otra parte del chasis, pero no por el conductor de protección, Figura
2.24.

Figura 2.24. Corriente de fugas del chasis.

c) Corriente de fugas del paciente: Es la que fluye de una parte aplicada del equipo al
paciente a través de aquél a tierra, o de otro conductor a través del paciente a un equipo
flotante, Figura 2.25.

61
Figura 2.25. Corrientes de fuga del paciente.

d) Corriente auxiliar del paciente: Es la que fluye a través del paciente entre
aparatos aplicados en funcionamiento normal sin intentar producir efectos
fisiológicos, Figura 2.26.

Figura 2.26. Corriente auxiliar del paciente.

e) Corriente funcional del paciente: Es la fluye a través del paciente entre aparatos
aplicados en funcionamiento normal intentando conseguir un efecto fisiológico, como por
ejemplo en el caso de utilización de un electro bisturí.

La tabla 2.1 muestra las corrientes de fuga en mA de primer fallo para diversos tipos de
equipos.

62
Tabla 2.1. Corrientes de fuga de primer fallo para diferentes equipos.

2.8. Analizadores de seguridad eléctrica.

Existen diversos equipos comerciales que se denominan analizadores de seguridad


eléctrica y se utilizan para testear y comprobar los equipos de los servicios médicos.
Estos equipos abarcan desde detectores de continuidad hasta detectores de
aislamiento.

2.8.1. Detectores de continuidad.

63
Estos equipos detectan posibles cortocircuitos entre cables al mismo tiempo que miden
que exista un camino físico entre dos puntos de un equipo.

2.8.2. Detectores de aislamiento.

La alimentación de los equipos médicos normalmente se aísla de la red por medio de un


transformador de aislamiento.

Para comprobar fallos en el aislamiento del equipo o posibles derivas tierra puede
utilizarse un monitor de aislamiento de línea (LIM) también denominado detector
dinámico de tierra (Figura 2.27) que se utiliza para detectar la corriente de primer fallo en
el transformador de aislamiento. Este monitor mide alternativamente la corriente de
fugas resistiva y capacitiva entre conductores y tierra. Cuando la corriente de fugas total
supera 1.7 a 2 mA se activa una alarma.

Figura 2.27. Sistema de alimentación con aislamiento por transformador con un monitor
de aislamiento de línea para detectar derivas a tierra.

2.8.3. Interruptores de fallo de puesta a tierra (GFCI).

Este tipo de circuitos pueden detectar derivaciones a tierra o masa y desconectar la


alimentación si esta deriva es superior a 6 mA. La Figura 2.28. muestra un ejemplo de
este tipo de circuitos, donde el GFCI sensa la diferencia entre las dos corrientes que
circulan por los conductores e interrumpe la alimentación cuando esta diferencia que se
debe derivar a masa supera un cierto rango, Figura 2.28.a. Este aparato no diferencia el
camino que toma la corriente para derivarse a masa: ya sea por el cable de masa o a
través de una persona.

64
Los GFCI no son suficientemente sensibles a riesgos de microshock y por lo tanto se
utilizan como protección de riesgos de macro shock.

En la Figura 2.28.b se muestra el tiempo de desconexión (trip time) en función de la


corriente de fugas a tierra detectada.

Figura 2.28. a) Esquema de un interruptor de fallo de puesta a tierra (GFCI). b) Tiempo


de desconexión del equipo en función de la corriente derivada.

2.9. Test de seguridad de equipos electromédicos e instalaciones.

Los sistemas de comprobación de la distribución eléctrica y equipos médicos deben


considerar la seguridad de los pacientes y del resto de usuarios o personal que puede
entrar en contacto con ellos. A continuación, se comentan algunas de las
comprobaciones más normales que deben realizarse:

a) Alguna conexión abierta o inexistente (3 casos posibles).


b) Hilos intercambiados (3 casos posibles).

65
2.9.1. Comprobación de enchufes.

En la Figura 2.29 se muestra un dispositivo para comprobar el estado del enchufe. En


este caso posee tres leds con los que puede detectar hasta 8 situaciones diferentes de
las 43 posibles (existen tres contactos y cada uno puede tener 4 estados: abierto, activo,
neutro y tierra).
Circuito de comprobación

Tablas de comprobación

Figura 2.29. Circuito y tabla para comprobar el estado de los enchufes.


2.9.2. Resistencia de tierra.

Consiste es hacer circular por el terminar de tierra una corriente elevada (1A) y
comprobar la tensión entre tierra y el neutro. La resistencia obtenida en cualquier caso
debe ser inferior a 0.2s.

66
Esta prueba nunca debe hacerse cuando exista riesgo de microshock, y en general
cualquier riesgo para los pacientes o personal sanitario.

Esta resistencia entre ramas de distinta tierra debe ser inferior a 0.5 s y entre paneles de
distribución diferentes inferiores a 1.0 s.

2.10. Pruebas de seguridad en equipos.

2.10.1. Resistencia fin de tierra – Chasis del equipo.

La resistencia entre la tierra del enchufe y el chasis del equipo o cualquier punto
metálico externo no debe superar 0.15 s. En la Figura 2.30 se puede observar este
hecho.

Figura 2.30. Comprobación de la resistencia tierra-chasis del equipo.

2.10.2. Corrientes de fuga del chasis.

Las corrientes de fuga del chasis deben ser inferiores a 500 A en equipos que no tengan
contacto con los pacientes e inferiores a 100: A en los que sí tengan contacto.

En la Figura 2.31 se muestra un esquema de un equipo para comprobar o testear la


corriente de fugas del chasis. La comprobación de esta corriente debe realizarse para
cualquier polaridad de la tensión de alimentación o cuando el equipo está funcionando
(ON) o está apagado (OFF).

67
Figura 2.31. a) Comprobación de la corriente de fugas del chasis. b) Circuito que se
utiliza para medir la corriente de fugas.

2.10.3. Corrientes de fuga en los hilos del paciente.

Las corrientes de fuga de los cables de contacto con el paciente o de los electrodos,
deben tenerse en cuenta puesto que estos contactos suelen presentar bajas
impedancias y pueden provocar riesgos o daños en el paciente. En estos contactos
pueden existir diversos tipos de fugas: fugas a tierra, fugas entre pares de electrodos o
entre cada uno y los demás. Al mismo tiempo debe prestarse especial atención en el
aislamiento de los electrodos.

La corriente de fugas en este caso debe ser inferior a 50 A. En cables aislados esta
corriente debe ser inferior a 10 A. Estos electrodos o cables aislados deben utilizarse
para conectar catéteres o electrodos en el corazón. Para medir estas corrientes debe
estar conectado el paciente tal y como puede apreciarse en la Figura 2.32.
68
Figura 2.32. Comprobación de la corriente de fugas de los hilos conectados al paciente.

Corrientes de fuga también pueden producirse entre pares de electrodos o entre cada
uno y los demás. En la Figura 2.33 se muestra un circuito para realizar esta medida.

69
Figura 2.33. Comprobación de las fugas entre los cables conectados al paciente.

Finalmente, puede producirse corrientes de fugas a través de los cables del paciente
hacia tierra si se aplicase una tensión de alimentación o red donde el paciente se
colocaría. De esta manera puede comprobarse el aislamiento electrodos-tierra ante
conexiones de la red a cada electrodo. La Figura 2.34 muestra un circuito para realizar
esta medida.

70
Figura 2.34. Comprobación del aislamiento electrodo-tierra a una tensión igual a la de la
red.

Bibliografía

71
CAPÍTULO 3

SENSORES Y TRANSDUCTORES DE USO EN BIOMEDICINA

Introducción.

Los sensores biomédicos son usados en medicina clínica e investigación biomédica para
la medición de un amplio rango de variables fisiológicas. Son frecuentemente llamados
transductores biomédicos y son los bloques principales de construcción de la
instrumentación médica de diagnóstico encontrado en consultorios, laboratorios clínicos
y hospitales. Estos sensores son rutinariamente usados in vivo para desempeñar
monitoreo continuo invasivo o no invasivo de variables fisiológicas criticas además de in
vitro para ayudar a los profesionales de la salud en diversos procedimientos de
diagnóstico. Algunos sensores biomédicos son usados también en aplicaciones que
nada tienen que ver con medicina como por ejemplo en monitoreo ambiental, agricultura,
bioprocesamiento, procesamiento de comida y en la industria petrolera y farmacéutica.

Los sensores biomédicos juegan un rol importante en aplicaciones de diagnóstico


médico. Dependiendo de las necesidades específicas, algunos sensores son usados
principalmente en laboratorios clínicos para medir in vitro cantidades fisiológicas tales
como electrolitos, encimas y metabólicos bioquímicos en la sangre. Otros sensores
biomédicos para medición de presión, flujo y concentración de gases, tales como
oxígeno y dióxido de carbono, son usados in vivo para seguimiento continuo
(monitoreado) de la condición de un paciente.

3.1. Clasificación de los sensores.

Los sensores biomédicos toman señales que representan variables biomédicas y las
convierten en lo que usualmente son señales eléctricas. Los sensores biomédicos o
biosensores sirven como una interfaz entre los sistemas biológico y electrónico y deben
funcionar de manera tal que no afecten a ninguno de estos sistemas. Se describen a
continuación los diferentes tipos de sensores pueden ser usados en aplicaciones
biomédicas.

3.1.1. Sensores físicos.

Las variables físicas asociadas a los sistemas biológicos son medidas por un grupo de
sensores conocidos como sensores físicos. Aunque son muchas las variables que
pueden ser medidas en un sistema biomédico, éstas pueden ser clasificadas como se
muestra en la Tabla I.

MAGNITUD FÍSICA SENSOR VARIABLE


72
Geométrica Indicador de estiramiento Estiramiento
LVDT
Desplazamiento

Cinemática Tiempo de transito Desplazamiento


ultrasónico
Velocidad
Velocímetro
Aceleración
Acelerómetro

Fuerza - Torque Célula de carga Fuerza aplicada

Transductor de Presión Presión

Térmica Termómetro Temperatura

Flujo Medidor de flujo Flujo

Sensor de flujo térmico Flujo calorífico

Tabla I. Sensores físicos y variables afectadas.

En aplicaciones biomédicas incluyen el desplazamiento de un músculo, la presión


sanguínea, la temperatura corporal, el flujo sanguíneo, la presión del fluido
cerebroespinal o crecimiento de un hueso. La Tabla II muestra algunos ejemplos de
aplicaciones biomédicas de los sensores físicos.

3.1.2. Sensores químicos.

El segundo grupo en la clasificación de los dispositivos sensores son los sensores


químicos. En este caso los sensores miden cantidades químicas, identificando, por
ejemplo, la presencia de determinados compuestos químicos, detectando la
concentración de varias especies químicas, y monitorizando la actividad química en el
cuerpo por motivos terapéuticos o de diagnóstico. Es posible distinguir entre sensores
químicos gaseosos, electroquímicos, fotométricos y de otros métodos químico-físicos.

3.1.3. Electrodos de biopotenciales.

Los sistemas biológicos frecuentemente tienen actividad eléctrica asociada a ellos. Esta
actividad puede ser un campo eléctrico constante, un flujo constante de partículas
portadoras de carga o corriente, o un campo eléctrico o una corriente variables en el
tiempo relacionados con determinado fenómeno biológico o bioquímica dependiente del
tiempo.
Tabla II. Ejemplos de aplicación biomédica de los sensores físicos.

73
SENSOR APLICACIÓN RANGO

Indicador de estiramiento Movimiento respiratorio 0 – 0,05


de metal

Líquido Pletismografía 0 – 0,02

Sensor magnético de Movimiento respitarorio 0 – 10 mm


desplazamiento

LVDT Contracción muscular 0 – 20 mm

Sensor de contracción 0,5 mm

Calla de carga Escala electrónica 0 – 440 lbs (0 – 200 Kg)

Acelerómetro Actividad del paciente 0 – 20 mIs2

Presión intra-arterial 0 – 50 Pa (0 – 350 mm Hg)

Sensor de presión Presión de la vejiga 0 – 20 Pa (0 – 70 mm Hg)


miniatura
Presión intra-uterina 0 – 15 Pa (0 – 100 mm Hg)

Gasto cardiaco 0 – 500 mL/min

Sensor electromagnético Flujo sanguíneo de un 0 – 100 mL/min


de flujo órgano

Los fenómenos bioeléctricos están asociados a la distribución de los iones o moléculas


cargadas en una estructura biológica y los cambios en la distribuci6n como resultado de
procesos específicos. Estos cambios pueden ocurrir como consecuencia de una
reacción bioquímica, o pueden emanar de fen6menos que alteran la anatomía local.
Existen toda una serie de señales de especial importancia para el diagnóstico y
comprensión de los sistemas biológicos. Estas señales junto a sus abreviaturas más
conocidas y los sistemas que caracterizan aparecen en la Tabla III. La más popular de
las aplicaciones de los electrodos de biopotenciales es la obtención de
electrocardiogramas para el diagnóstico y las aplicaciones de monitorización de
pacientes.

74
Tabla III. Señales bioeléctricas detectadas por los electrodos de biopotenciales.

3.2. Dispositivos de dirección, posición, distancia y movimiento.

3.2.1. Transductores de desplazamiento

Los transductores de desplazamiento inductivos se basan en la inductancia L de una


bobina dada por:

L=n2 G μ

Donde, G es una forma geométrica constante, n es el número de espiras de la bobina y


µ es la permeabilidad del medio magnéticamente susceptible dentro de la bobina. Estos
tipos de transductores de medida de desplazamiento por cambio de sus auto
inductancias de una simple bobina o una inductancia mutua acoplada entre dos o más
bobinas estacionarias, típicamente por el desplazamiento de un núcleo de ferrita o hierro
en el arroyamiento de la bobina. Un transductor inductivo de desplazamiento
ampliamente usado es el transformador diferencial lineal variable (LVDT) ilustrado en la
Figura. 3.1.

75
Fig. 3.1. Transductor LVDT

Este dispositivo es esencialmente un transductor de inductancia mutua de tres bobinas


que está compuesto de una bobina primaria (P) y dos bobinas secundarias (S 1 y S2)
conectadas en serie, pero con polaridad opuesta para lograr un rango lineal de salida
más amplio. La inductancia mutua acoplada entre las bobinas varía por el movimiento de
un arroyamiento de alta permeabilidad. La bobina primaria es usualmente excitada por el
paso de una corriente AC. Cuando el arroyamiento está centrado simétricamente con
respectos a las dos bobinas secundarias la bobina primaria induce un campo magnético
alternante en las bobinas secundarias. Esto produce voltajes iguales (pero de
polaridades opuestas) a través de las dos bobinas secundarias. Por lo tanto, las
excursiones de voltaje positivo desde una bobina secundaria cancelaran las excursiones
de voltaje negativo de la otra bobina secundaria, resultando una malla de voltaje de
salida igual a 0. Cuando el núcleo se mueve con respecto a una bobina, el voltaje
inducido en esa bobina se incrementa proporcionalmente al desplazamiento del núcleo
mientras el voltaje inducido en la otra bobina decrece proporcionalmente, llevando a la
típica grafica de voltaje-desplazamiento ilustrado en la Figura. 3.2. Como los voltajes
inducidos en las dos bobinas secundarias están desfasados, deben ser usados circuitos
electrónicos especiales desfase-sensitivos para detectar ambas posiciones y la dirección
de desplazamiento del núcleo.

76
El flujo de sangre a través de un conducto expuesto (vena) puede ser medido por medio
de un transductor electromagnético de flujo. Este es usado ampliamente en estudios
investigativos para la medición del flujo de sangre en venas principales cerca al corazón,
incluyendo la aorta en el punto donde esta existe desde el corazón.

Figura. 3.2. Voltaje de salida versus desplazamiento del núcleo de un transductor LVDT
típico.
Considere un conducto sanguíneo de diámetro l lleno de sangre fluyente con una
velocidad uniforme u. si el conducto sanguíneo se pone en un campo magnético
uniforme ⃗B que es perpendicular a la dirección del flujo sanguíneo, la carga negativa
anión y la carga positiva catión presentes en la sangre experimentaran una fuerza ⃗ F , la
cual es normal tanto a la dirección del campo magnético como a la dirección del flujo
sanguíneo y está dado por

F =q (⃗u × ⃗
⃗ B)

Donde q es la carga elemental (1.6 ×10−19 C). Como resultado, estas partículas cargadas
serán deflectadas en direcciones opuestas y se moverán a lo largo del diámetro del
conducto sanguíneo de acurdo a la dirección del vector fuerza ⃗ F . Este movimiento
producirá una fuerza opuesta F o que es igual a

V
F o=q ⃗
⃗ E =q
l( )
E es la red de campo eléctrico producida por el desplazamiento de las partículas
Donde ⃗
cargadas y V es el potencial producido a través del conducto sanguíneo. En equilibrio,

77
estas dos fuerzas serán iguales. Por consiguiente, la diferencia de potencial, V, está
dada por

V =Blu

Y es proporcional a la velocidad de la sangre a través del conducto.

Figura. 3.3. Probeta de flujo sanguíneo electromagnética

Prácticamente este dispositivo consiste de una probeta prendedora que ajusta


cómodamente alrededor del conducto como se ilustra en la Figura. 3.3., la probeta
contiene bobinas eléctricas para producir un campo electromagnético transversal a la
dirección del flujo sanguíneo. La bobina es usualmente excitada por una corriente AC.
Un par de pequeños electrodos de biopotencial son fijados al alojamiento y descansa
sobre la pared del conducto sanguíneo para recoger el potencial inducido. El voltaje
inducido por flujo es un voltaje AC en la misma frecuencia que el voltaje de excitación.
Usando un método AC en lugar de una excitación DC ayuda a remover cualquier error
de potencial offset debido al contacto entre la pared del conducto y los electrodos de
biopotencial.

78
Figura. 3.4. Transductores de desplazamiento lineal (a) y angular (b).

Un potenciómetro es un transductor de tipo resistivo que convierte su desplazamiento


lineal o angular en un voltaje de salida por el movimiento de un contacto corredizo a lo
largo de la superficie de un elemento resistivo. La Figura. 3.4 ilustra potenciómetros de
tipo angular y lineal. Un voltaje, V, es aplicado a través del resistor R. el voltaje de salida,
Vo entre el contacto corredizo y un terminal del resistor es linealmente proporcional al
desplazamiento. Típicamente, una fuente de corriente constante es pasada a través del
resistor variable y el pequeño cambio en el voltaje de salida es medido por un voltímetro
sensitivo usando la ley de Ohm (I = V/R).

En ciertas situaciones clínicas, es deseable medir cambios en el volumen periférico de


una pierna cuando el flujo venoso saliente de sangre de la pierna es temporalmente
obstruido por una banda de presión sanguínea. Este método de medición de volumen es
llamado pletismografía y puede indicar la presencia de coágulos venosos en las piernas.
La medición puede ser hecha por la envoltura de un transductor elástico resistivo
alrededor de la pierna y midiendo la rata de cambio de resistencia del transductor como
función del tiempo. Este cambio corresponde a cambios relativos en el volumen de la
sangre de la pierna. Si hay un coagulo presente, tomara más tiempo para la sangre
almacenada en la pierna fluir a través de la vena después de que la obstrucción
temporal sea removida. Un transductor similar puede ser usado para seguir los patrones
de respiración de un paciente envolviendo la banda elástica alrededor del pecho.

Un transductor eléctrico-resistivo consiste en un delgado tubo elástico lleno de un


material eléctricamente conductivo como el que se muestra en la Figura.3.5 la
resistencia del conductor dentro del tubo flexible está dada por

R=ρ ( Al )
79
Figura. 3.5. Transductor elástico resistivo.

3.3. Transductores fotoeléctricos.

Luz es la radiación electromagnética cuya longitud de onda es capaz de impresionar la


retina del ojo humano y provocar la sensación de visión.

La luz blanca está compuesta por una serie de colores, cada uno de los cuales se
caracteriza por una longitud de onda determinada, que son: el rojo, el naranja, el
amarillo, el verde, el azul, el añil y el violeta. De ellos, el rojo es el que tiene la longitud
de onda mayor y el violeta la menor. Sin embargo, todos estos colores no están
nítidamente divididos entre sí sino que forman un espectro continuo.

Uno de los efectos que presenta la luz blanca es el de la dispersión de los colores que la
componen, cuando incide con un ángulo determinado desde un medio en otro cuya
densidad es diferente al primero. Como consecuencia de la diferencia de longitudes de
onda, la luz de los diversos colores se propaga con velocidades distintas y ángulos de
80
difracción diferentes, lo cual da lugar a la separación de la luz blanca en el espectro
continuo antes mencionado. Este efecto puede observarse en el arco iris, en el que la
luz solar es refractada y dispersada por las gotas de lluvia. Por otro lado, el color azul del
cielo se debe a la dispersión de la luz solar que se difracta en las moléculas de la
atmósfera.

Para dispersar la luz blanca se emplea, fundamentalmente, un prisma triangular de


vidrio, experiencia que Isaac Newton fue el primero en realizar. Asimismo, es posible
recoger el espectro mediante una lente y hacerlo pasar por un segundo prisma, con lo
cual se obtiene de nuevo luz blanca. En los espectrómetros se utilizan prismas
dispuestos de este modo haciendo que la luz pase primero por un colimador y una lente
convexa que da lugar a un rayo que se hace incidir con un determinado ángulo sobre un
prisma que lo difracta y dispersa dando lugar a los colores espectrales que lo
constituyen. Los rayos de colores diferentes que salen del prisma son recogidos por una
lente convexa que los conduce a un foco en el que pueden observarse, registrarse
mediante película fotográfica o incidir sobre detectores. Los dos tipos de espectros que
pueden obtenerse son el espectro de emisión y el de absorción. El primero se obtiene
gracias a la excitación de los electrones de los átomos de una determinada sustancia
que al recibir energía pasan a órbitas superiores y al regresar al estado fundamental
emiten dicha energía en forma de luz con una longitud de onda determinada.

De este modo, cada elemento químico está asociado a un espectro característico que
resulta de extrema utilidad en su análisis químico. Por otro lado, los espectros de
absorción se obtienen gracias al hecho de que el vapor de una sustancia absorbe, a una
temperatura inferior a la incandescencia, las mismas longitudes de onda que emite. El
espectro que se obtiene recibe el nombre de espectro de absorción ya que en las
regiones correspondientes a las longitudes de onda absorbidas aparecen oscuras.
Dichos espectros se emplean también para la determinación de la composición del vapor
en cuestión recibiendo las líneas oscuras antes mencionadas el nombre de rayas de
Fraunhofer.

A pesar de que la descomposición de la luz blanca da lugar a siete colores y que el paso
de estos nuevamente por un prisma permite recuperar dicha luz, para obtenerla solo es
necesario combinar tres colores espectrales, el rojo, el verde y el azul. Dichos colores se
denominan por este motivo colores primarios de la luz. Asimismo, la combinación de
pares de dichos colores primarios da lugar a la aparición de otros colores (secundarios).
El verde y el rojo permiten obtener el amarillo, el azul y el verde dan el cyan mientras
que el rojo y el azul dan el magenta. Esta combinación de colores primarios es la que se
emplea por ejemplo para la obtención de la imagen en el tubo de televisión en color
mediante tres cañones, uno para cada color. Por otro lado, la mezcla de los pigmentos
de los colores da lugar a resultados diferentes ya que nosotros percibimos los colores de
los pigmentos a modo de luz reflejada y no de luz que proceda directamente de una
fuente luminosa. Es decir, el color que percibimos es el único que no ha sido absorbido
por la superficie que refleja la luz. En este caso los colores primarios si bien existen son
distintos: el magenta, el cyan y el amarillo (que a su vez son los colores secundarios de
la luz). De igual modo en este caso pueden obtenerse los colores secundarios mediante

81
la mezcla de parejas de primarios, a saber, el amarillo y el magenta para obtener el rojo,
el magenta y el cyan para obtener el azul y el cyan y el amarrillo para obtener el verde.
Al igual que en el caso de la luz la mezcla de los tres colores primarios nos permitía
obtener luz blanca, en el caso de los pigmentos su mezcla da como resultados la
sustracción total de los colores de la luz por lo que su resultado es el negro.

Sensores de Luz.

Los sensores de luz visible y de infrarrojos cubren un amplio espectro de complejidad.


Las fotocélulas se encuentran entre los más sencillos de todos los sensores para hacer
su interfaz con el microprocesador, y la interpretación de la salida de una fotocélula es
directa. Las cámaras de vídeo, por el contrario, requieren una buena cantidad de
circuitería especializada para hacer que sus salidas sean compatibles con un
microprocesador, además las complejas imágenes que las cámaras graban son todo
menos fácil de interpretar.

Fotodiodos

Los fotodiodos generan una pequeña corriente proporcional al nivel de iluminación.


Algunas de las aplicaciones típicas son: En la industria (sensores de posición, lector de
códigos de barras, impresoras láser). En comunicaciones (receptores de fibra óptica). En
medicina (detección de rayos X, analizador de partículas en la sangre). En óptica (auto-
foco, control de flash). El circuito equivalente de un fotodiodo se muestra en la
Figura.3.6.

Figura. 3.6. Circuito equivalente de un fotodiodo conectado a un A.O.

El modo de trabajo lineal más preciso se obtiene con el sistema denominado


fotovoltaico. La corriente obtenida para diferentes intensidades de luz se muestra en la
tabla siguiente:

ILUMINACION CORRIENTE
Sol directo 1000 fc 30 mA
Cielo nublado 100 fc 3 mA
Anochecer 100 fc 0.03 mA

82
Noche con Luna llena 0.1 fc 3000 pA
Noche sin Luna 0.001 fc 30 pA
Tabla 3.1. Corriente para diferentes intensidades de luz.

Para detectar una corriente de 30 pA, implica colocar una resistencia de realimentación
en el amplificador operacional muy alta, por ejemplo, de 1000 MΩ para obtener una
tensión de 30 mV y para una corriente de 10 nA se obtendrá una tensión de salida de
10V. Entonces, para valores de iluminación superiores se tendrá que reducir el valor de
dicha resistencia. Un amplificador operacional con entrada a FET es la mejor elección
para este tipo de aplicación, como el AD549, AD546, AD795 y AD645 de Analog
Devices, con una muy baja corriente de Bias (hasta 1pA).

Figura.3.7. Circuitos de Transductores fotoeléctricos.

Transductores Fotoeléctricos.
En medición de eventos fisiológicos en seres vivos los transductores fotoeléctricos son
empleados en 2 formas:
 Como detector de cambios en la intensidad de la luz de una cierta
longitud de onda, como en la colorimetría y espectrometría.

 Como detector de intensidad de la luz en donde la longitud de onda no es


relevante.

Básicamente hay 3 tipos de transductores fotoeléctricos:

 Los fotoemisores (fototubo) en el cual se liberan electrones de una superficie


metálica.

 Los fotovoltaicos, donde se produce una diferencia de potencial entre 2


substancias en contacto.

 Los fotoconductivos, como la fotorresistencia, donde ocurre un cambio en


conductividad.

83
Aun cuando hay cierto traslape en sus características, su selección está relacionada por
sus particulares características de respuesta al espectro de luz, sensitividad, voltaje y
corriente de salida.
a). Tubos fotoemisores.

El tubo fotoemisor es un bulbo al vacío (o lleno de alguna mezcla de gases) con 2


electrodos, el cátodo es una superficie metálica cubierta de un material (compuestos de
cesio, antimonio, plata y bismuto) que libera electrones cuando se le ilumina, el ánodo es
un tubo delgado o un alambre.
La emisión de electrones se presenta si la longitud de onda es menor a un cierto valor,
así hay limitación de su sensitividad a longitudes de onda largas.

En los transductores con tubos foto emisores se aplica un voltaje relativamente alto
(entre 10 y 200 volts), sin luz presenta una muy pequeña corriente de fuga; ante la
presencia de luz se liberan electrones en el cátodo y se establece un flujo de corriente
hacia el ánodo que es linealmente proporcional a la intensidad de la luz incidente. Su
respuesta a la frecuencia es muy alta (tiempos menores a 1 milisegundo).
El flujo de corriente es pequeño (no suficiente para indicación directa) y requiere de
etapas de amplificación. En tubos foto emisores llenos de mezclas de gases es posible
obtener corrientes más altas.
Un tipo particular del tubo foto emisor es el fotomultiplicador, donde se agregan ánodos,
cada uno a un potencial más alto, obteniéndose en 10 o más etapas amplificaciones de
corriente en el orden de millones con tiempos de respuesta de del orden de
nanosegundos. Debido a su alta sensitividad y corto tiempo de respuesta, los
fotomultiplicadores son aplicados ampliamente para detectar bajos niveles de luz
presentes en cortos tiempos.
Un caso de aplicación en ingeniería biomédica son contadores de centelleos presentes
en estudios de medicina nuclear, donde las emisiones de un material radioactivo (que es
aplicado al paciente) son convertidas a luz mediante una pantalla fluorescente y
detectada su intensidad y localización mediante fotomultiplicadores.

En estudios radiológicos dinámicos de diagnóstico, durante fluroscopia, se utilizan


fotomultiplicadores para controlar el kilovoltaje y miliamperaje en el tubo de rayos x de tal
forma que independientemente del tipo de paciente se tenga una buena imagen.
b). - Celdas fotovoltaicas.
A diferencia de los tubos fotoemisores (que requieren altos voltajes y producen, al ser
iluminados, bajas corrientes), las celdas fotovoltaicas (también conocidas como foto
galvánicas o fotoceldas) producen un voltaje a un substancial nivel de corriente.

Una de las celdas fotovoltaicas más populares consiste de un sándwich con dos
superficies asiladas, una con un recubrimiento de selenio y la otra de hierro o acero.
Cuando se ilumina, se absorbe la energía de la luz, liberando electrones produciendo
una diferencia de potencial que es negativa en el lado metálico y positivo en el lado del
84
selenio. Adicionalmente, la resistencia interna de la celda decrece con el incremento en
luz, permitiendo conectar varias celdas en paralelo y evitando que celdas que no reciban
luz carguen al circuito.

Debido a que la relación de intensidad de luz a voltaje es no lineal (produciendo voltajes


en circuito abierto entre 200 y 600 mV), generalmente se relaciona con la magnitud de la
corriente (aprovechando la reducción de la resistencia con el incremento en intensidad
de luz), produciéndose una relación bastante lineal.

Las fotoceldas de selenio cubren el rango de luz visible, por lo que son ampliamente
utilizadas en medidores de iluminación, medidores de exposición de luz y colorímetros
simples (mediante el uso de filtros ópticos). Debido a su alta capacitancia, las celdas
fotovoltaicas presentan respuestas mayores a 5 milisegundos. La principal desventaja de
las celdas fotovoltaicas es su sensitividad a cambios en temperatura.

Otro ejemplo de celda fotovoltaica es la unión de materiales semiconductores P-N, La


absorción de la energía de la luz por la unión P-N resulta en la generación de pares
electrón – hueco que produce un voltaje en la unión. La aplicación más importante del
fotodiodo es la batería solar, que convierte la luz solar en potencia eléctrica, pero como
transductor fotovoltaico presenta una característica no lineal, ya sea polarizado en
directa o inversamente o sin polarización.

Fig. 3.8. Celda fotovoltaica y curva característica.

Figura. 3.8. Celda fotovoltaica y curva característica.

La sensitividad espectral de las celdas fotovoltaicas de unión P-N está en el rango de las
regiones roja e infrarroja, su tiempo de respuesta está en el rango de microsegundos a
milisegundos, lo cual los ha hecho ampliamente utilizados en detectores de luz.
85
Otra aplicación importante es su uso en dispositivos de aislamiento eléctrico
(optoaisladores), donde una señal eléctrica es convertida a luz mediante un LED y es
detectada a cierta distancia por una celda fotovoltaica de unión PN, abriendo cualquiera
conexión conductora entre entrada y saliendo con características de un excelente
aislamiento eléctrico.

c). - Celdas fotoconductivas.

Las celdas fotoconductivas o foto resistivas están formadas por una delgada película de
materiales como selenio, germanio, silicio o sulfatos metálicos. Cuando son expuestos a
cierto tipo de energía radiante, exhiben un fenómeno foto conductivo, decrecimiento es
su resistencia. El cambio en resistencia es significativo, de muchos megohmios en la
oscuridad a pocos cientos de ohms en plena iluminación.

En la mayoría de las celdas fotoconductivas, el incremento en nivel de iluminación es


aproximadamente lineal con la conductancia, lo cual es una relación inversa de la
resistencia. Estos detectores son extremadamente sensibles y son empleados
frecuentemente como interruptores activados por luz o en aplicaciones de colorimetría.

Figura. 3.9. Fotoceldas.

Algunas celdas fotoconductivas son muy sensibles al rango de radiación infrarroja lo que
ha hecho que se apliquen en espectroscopia u objetivos que emiten este tipo de
radiación. Su tiempo de respuesta varía con la intensidad de la luz, pero anda en un
rango de 0.1 a 30 milisegundos.

Con el fotodiodo, le cambio de corriente con el cambio en nivel de intensidad es


pequeño, aun cuando su tiempo de respuesta es bastante corto. Si se pudiera sacrificar
algo del tiempo de respuesta, se pudiera lograr incrementar la sensitividad en corriente
utilizando un fototransistor.

86
En un fototransistor se deja la terminal de base sin conectar y expuesta a la luz, la
intensidad de la luz produce un incremento en el potencial de la base activando el
transistor y amplificando este efecto en la corriente de colector por el factor β del
transistor.

Figura. 3.10. Circuito de fototransistor.


El fototransistor es un fotodetector de alta ganancia cuyo pico se presenta en el rango de
las regiones roja e infrarroja, su tiempo de respuesta anda en el rango de 5
microsegundos.

Su aplicación, tanto en biomedicina como industrial, se ha visto limitada por su


inferioridad en respuesta comparado con el fotodiodo, tal parece que la combinación del
fotodiodo con un amplificador provee una mejor solución de sistema de detección de luz
que el fototransistor.

Comparación entre transductores fotoeléctricos.

Con tal cantidad de detectores fotoeléctricos, conviene hacer una revisión de sus
características más importantes. Las características más importantes de los sensores
fotoeléctricos son:

• Sensitividad al espectro de radiación (luz visible, ultravioleta, infrarroja).


• Tiempo de respuesta,
• Tipo de salida (voltaje, corriente, resistencia),
• Linealidad con la intensidad de la luz.

87
Tubos fotoemisores:

• Sensitividad pico en el espectro en las regiones de luz visible y ultravioleta (mayor


en tos tubos rellenos de mezclas de gases).
• Corto tiempo de respuesta (microsegundos).
• Requieren un voltaje de polarización alto.
• La relación corriente – intensidad de luz es bastante lineal.
• Presenta corriente de fuga en oscuridad.
• Provee una salida pequeña de corriente.
• El bulbo es frágil y sensible a impactos y fuerzas de aceleración.
• Los fotomultiplicadores proveen altas ganancias de amplificación.

Celdas fotovoltaicas y de unión P-N:

• Sensitividad pico en el espectro en las regiones de luz visible e infrarroja.


• El tiempo de respuesta varía según el tipo, pero los menores están en uniones P-N.
• No requieren voltaje de polarización.
• Son sensibles a cambios de temperatura.
• Robustas.
Celdas fotoconductivas (fotorresistencias, foto uniones P-N y fototransistores):

• Sensitividad pico en el espectro en las regiones de luz roja e infrarroja.


• El tiempo de respuesta varía según el tipo, pero los menores están en foto uniones
P-N, siguiendo con el fototransistor y las más largas con la fotorresistencia.
• Requieren voltaje de polarización.
• La resistencia varía inversamente con la intensidad de la luz, no lineal.
• La relación de corriente a intensidad es bastante lineal en las foto uniones P-N y el
fototransistor.
• Robustas y sensibles a temperatura.

Aplicaciones en colorimetría.

Además de las aplicaciones en colorímetros y espectrofotómetros para el análisis de


fluidos biológicos, los transductores fotoeléctricos permiten la medición de eventos
fisiológicos en seres vivos; Dos aplicaciones son la determinación del nivel de saturación
de oxígeno en sangre a medida que circula y la concentración de bióxido de carbono en
el flujo de aire de expiración. En el primer caso se utilizan foto detectores (con sus
correspondientes filtros) para sensar cambios en densidad de color.

La determinación del nivel de saturación de oxígeno en la sangre mediante la medición


de su tonalidad roja en seres vivos se hace por transiluminación a través de un tejido
rico en vasos sanguíneos, como el lóbulo de la oreja. En un lado se coloca un emisor de
luz y en los otros, dos detectores fotovoltaicos, cada uno cubierto por un filtro. El primero
88
detecta radiación en la porción roja del espectro (640 mμ) y el segundo en la región de la
radiación infrarroja (800 mμ).
La curva de calibración es un gráfico de saturación de oxígeno contra la razón del nivel
sensado en el canal rojo entre el nivel sensado en el canal infrarrojo. Con esto podemos
esperar una medición no invasiva del nivel de saturación de oxígeno en sangre en
tiempo real son una exactitud en el orden del +/- 5 % del valor real. La medición en
tiempo real es especialmente útil durante cirugías.

Figura. 3.11. El primer detector (canal rojo) provee una señal que indica la cantidad de
oxígeno en la sangre y la cantidad de sangre en el tejido, por supuesto, en la trayectoria
de luz. El segundo detector (canal infrarrojo) es independiente de la saturación de
oxígeno y porta información de la cantidad de sangre y tejido en la trayectoria de luz. El
grado de saturación de oxígeno se determina calibrando el fotodetector contra muestras
de sangre analizadas químicamente.

En el caso de la concentración de bióxido de carbono (ya mencionado en un tema


anterior), se aprovecha la propiedad de transducción del bióxido de carbono de absorber
radiación infrarroja con longitud de onda de 4.26 μ, en un lado se instala una fuente de
radiación infrarroja en esa banda del espectro y en el otro lado un fotodetector. En este
caso la relación es inversa, a mayor concentración de bióxido de carbono, menor la

89
señal del fotodetector. Con esto se pudo lograr un sistema que ofrece mediciones de
concentración de CO2 cada 50 milisegundos.

Aplicaciones no colorimétricas.

Fotodetectores, en particular celdas fotovoltaicas y fotorresistencias han sido


ampliamente utilizadas para detectar pulso, en este caso hay 2 técnicas para lograrlo.

Figura. 3.12. Fuente de luz frente a detector y fuente de luz al lado del detector.

En un caso la masa bascular es puesta entre la fuente de luz y el fotodetector, en este


caso el flujo capilar modula la densidad de luz que pasa por transmitancia. En el
segundo caso, la fuente de luz está en el mismo lado del fotodetector y la detección de
pulso se realiza por la cantidad y dispersión de la luz reflejada.
Otro caso de aplicación de transductores fotoeléctricos está en las bombas de infusión.
En las bombas de infusión se hace pasar una sonda que proviene de un recipiente con
suero y/o medicamento, se controla el volumen a pasar al paciente modificando la
frecuencia de goteo del suero en una sección cilíndrica y transparente de la sonda.

En este caso se coloca la fuente de luz en un lado de la sección cilíndrica y un


fotodetector en el otro lado, cada vez que pasa una gota, dispersa la luz y reduce su
cantidad a llegar en el fotoreceptor. En esta forma se miden las gotas, de acuerdo a los
diámetros y geometría, entre 15 y 30 gota hacen 1 centímetro cúbico (cc), con esto es
posible tener una retroalimentación de volumen que en el tiempo establece una cierta
dosis a controlar (100 cc/hr). Todo esto con la ventaja de que nunca se tiene contacto
con el fluido a suministrar.

Algunos problemas en la aplicación de fotodetectores son la frecuente necesidad de


proveer blindaje al sensor de tal forma que no le afecten otras fuentes de luz. También,
90
como generalmente se requiere de una fuente de luz constante y su intensidad varía con
el cuadrado del voltaje de excitación, variaciones en la fuente de alimentación puede
introducir errores significativos. En este caso, frecuentemente se añade otro fotodetector
para monitorear directamente la fuente de luz y hacer correcciones ante sus variaciones.

3.4. Sensores de temperatura.

Hay tres tipos de transductores de temperatura comunes: termopares, termistores


(RTDs) y uniones PN de estado sólido. De estos, los últimos dos son los más aplicados
en equipos clínicos, en tanto que los 3 tienen una amplia aplicación en investigación
biomédica y biofísica.

Figura. 3.13. Tres tipos de transductores de temperatura.


a) Termopar b) Termistor y c) Unión PN.

Un termopar (Figura. 3.13.a) consiste en dos conductores no similares unidos en uno de


sus extremos. Debido a que los conductores son de materiales diferentes, cuando se
calienta la unión se produce un potencial (milivoltaje). El potencial es bastante lineal ante
cambio en temperatura sobre un rango amplio, volviéndose no lineal en los extremos del
rango.

Los termistores son resistencias que, ante cambios en temperatura, cambian su valor en
forma predecible (Figura. 3.13.b). Un dispositivo con coeficiente de temperatura positivo

91
(PTC) incrementa su resistencia cuando se incrementa la temperatura, mientras un
dispositivo de coeficiente negativo (NTC) disminuye su resistencia cuando se incrementa
la temperatura.
La mayoría de los termistores presentan una característica no lineal en un rango amplio
de temperatura, sin embargo, la linealidad mejora cuando se limita a un rango estrecho
de temperatura (tal como la temperatura del cuerpo humano). Cuando se utilizan
termistores es necesario asegurar que no se permita que la temperatura llegue a valores
donde la calibración no es conocida o donde la característica del termistor es
extremadamente no lineal. La mayoría transductores de temperatura médicos son
termistores.
Para minimizar errores causados por cambio en la resistencia de los cables que se
conectan al termistor se conectan terminales compensadoras, con lo cual se pueden
lograr exactitudes en la medición del orden de centésimas de grado centígrado. En el
uso de termistores se deben tomar algunas precauciones:
a) Si está inmerso en un líquido, debe considerarse su conductividad eléctrica, pues
pudiera operar como una resistencia en paralelo, distorsionando la medición.
b) Si está en un medio donde se tienen campos magnéticos constantes o variables se
debe considerar su efecto en resistencia o en voltaje inducido en el sensor.
c) Cuidar que la corriente de polarización del transductor no produzca una elevación en
su temperatura.
La mayoría de los termistores usados en estudios Biomédicos son muy pequeños, al
minimizar la masa térmica se reduce su tiempo de repuesta, permitiendo seguir cambios
rápidos en temperatura.
Aun cuando los termistores generalmente son usados para la medición de la
temperatura de la piel o de muchas regiones dentro del cuerpo, estos pudieran ofrecer
muchos servicios más, por ejemplo, ya que la temperatura del aire expirado es mayor
que la del aire inspirado, un sensor de temperatura (usualmente un termistor sellado
herméticamente) colocado en las vías respiratorias puede proveer una señal que permita
el monitoreo de la frecuencia respiratoria.
La última clase de transductor de temperatura es el diodo de estado sólido de unión PN
(Figura. 3.13.c). Si lo desea puede hacer la prueba con cualquier diodo rectificador de
estado sólido; se conecta a un óhmetro, la resistencia en polarización directa presentará
un valor; si se calienta (por ejemplo, con un cautín) la resistencia bajará a medida que se
incremente su temperatura.

La mayoría de los transductores de temperatura, sin embargo, utiliza un transistor


bipolar conectado como diodo (como el de la Figura. 3.13.c).

Sabemos que el voltaje base-emisor de un transistor es proporcional a la temperatura,


para la configuración diferencial, en la Figura. 3.13.c el voltaje de salida del transductor
es:

92
Ic1
KT ln ⁡( )
∆ V be = Ic2 Ecuación (3.1)
q

Donde
K es la constante de Boltzman (1.38x10-23 J/ 0K)
T es la temperatura en grados kelvin (Nota: 0 0C = 273 0K)
q es la carga electrónica, 1.6 x 10-19 Coulombs por electrón.
Ic1 e Ic2 son la corriente de colector de Q1 y Q2, respectivamente.

La cantidad K/q es una razón de constantes que es constante bajo todas las
circunstancias. La razón de corriente Ic1/Ic2 se mantiene constante al utilizar fuentes
de corriente constante en los circuitos de emisor de Q 1 y Q2. Por supuesto, el logaritmo
de una constante es también una constante. Además, la única variable en la Ecuación
(3.1) es la temperatura T.

Ejemplo:

Encontrar el voltaje de salida de un transductor temperatura construido como la Figura.


3.13.c si Ic1 es 2 mA e Ic2 es 1 mA y la temperatura es 37 0C [nota: 370C es (37 + 273)

= 310 0K]

Ic1 J mA
∆ V be =
KT ln ⁡( )
Ic2 = (1.38 X 10 −23
°K ) (
( 310 ° K ) [ln 2
1 )
mA ]
Ecuación (3.2.)
q −19
1.6 X 10 ° C

∆ V be = 1.85 X 10−2 J/°C = 0.0185 V

El circuito en la Figura. 3.13.c presenta una ventaja distinta sobre los otros: es
ampliamente lineal sobre todo el rango de temperatura (hasta el punto donde la unión
PN se daña por sobre temperatura). Así, el voltaje de salida ΔV be puede ser procesado
por un simple amplificador y no requiere de una etapa adicional para linealizar el
resultado.

93
Si se selecciona un amplificador de ganancia adecuada, entonces la temperatura y el
voltaje de salida del amplificador pudieran ser numéricamente iguales, permitiendo que
un voltímetro opere como indicador de salida. La mayoría de estos sistemas de
instrumentación producen un voltaje de salida del amplificador de 10 mV/°K.

CAPÍTULO 4.

SISTEMAS DE ACONDICIONAMIENTO Y ADQUISICIÓN


DE SEÑALES BIOELÉCTRICAS.

Introducción.

El objetivo de este tema es acometer el estudio de la adquisición, amplificación y


acondicionamiento de potenciales bioeléctricos a nivel extracelular mediante electrodos.
Como ya se ha estudiado, la actividad fisiológica de las células en las diferentes
estructuras biológicas provoca potenciales bioeléctricos tanto intracelulares como
extracelulares. Para desarrollar sistemas de captación de señales biopotenciales
conviene estudiar las características de las mismas y a partir de éstas desarrollar los
sistemas de amplificación y de acondicionamiento. También deben considerarse en el
diseño las medidas de seguridad necesarias con el fin de que el paciente no sufra riesgo
alguno. En este tema nos vamos a centrar en el estudio de los amplificadores de
potenciales bioeléctricos o bioamplificadores, adaptando sus cualidades en función a la
señal que se desea medir.

4.1. Problemática de la captación de las señales bioeléctricas.

El principal problema de la captación de las señales bioeléctricas proviene de los valores


de amplitud y frecuencia de las mismas. Dichas amplitudes son pequeñas y a menudo
se encuentran contaminadas de ruido que incluso puede ser superior al valor de la
propia señal. En este apartado se estudian los problemas que surgen en la captación de
las señales extracelulares. A partir de estas señales se establecen las especificaciones
del amplificador necesario para recuperar las mismas, así como las características del
equipo de medida y las relacionadas con el ancho de banda de la señal de entrada.

4.1.1. Características generales de las señales bioeléctricas.

Los potenciales bioeléctricos del cuerpo humano o de cualquier animal raramente son
determinísticos. Sus magnitudes varían con el tiempo, incluso cuando todos los factores
que las originan están controlados. Los valores de la misma medida pueden variar
enormemente entre diferentes individuos, aunque estos estén sanos y las condiciones
de medición sean las mismas. Esto quiere decir que los valores pueden ser muy
diferentes para diferentes personas, aunque sean valores normales en ellos.

94
A continuación, se relacionan algunos de los valores típicos para diferentes señales
bioeléctricas:

SEÑAL MAGNITUD ANCHO DE BANDA (Hz)


ECG (Electrocardiograma) 0.5 – 4 mV 0.01 - 250
EEG Electroencefalograma) 5 – 300 V DC - 150
EGG (Electrogastrograma) 10 – 1000 V DC - 1
EMG (Electromiograma) 0.1 – 5 mV DC – 10.000
EOG (Electrooculograma) 50 – 3500 V DC - 50
ERG (Electroretinograma) 0 – 900 V DC - 50

Tabla 4.1. Señales bioeléctricas.

Los valores indicados en la Tabla 4.1. fijan la ganancia y el ancho de banda que debe
tener el equipo de medida. Tomando como ejemplo la señal del ECG, y para evitar
deformaciones mayores del 10%, la American Heart Association recomienda que el
ancho de banda de los equipos destinados a captar el ECG sea al menos de 0.1 a 100
Hz. Sin embargo, en función de la patología a detectar puede ser necesario trabajar con
mayores anchos de banda.

4.1.2. Fuentes de ruido e interferencias en un bioamplificador.

Teniendo en cuenta los valores de la Tabla 4.1, se podría pensar que el problema de la
adquisición de los biopotenciales se reduce a diseñar y construir un amplificador con
ganancia elevada y ancho de banda suficiente. Pero, el principal problema en el registro
de estas señales se encuentra en reducir al mínimo las interferencias o ruido que se
encuentran mezcladas con ella y que en muchos casos tienen mayor amplitud que la
propia señal, y con un espectro de frecuencia superpuesto.

95
Figura 4.1. Fuentes de interferencia que actúan sobre la medida de un
biopotencial extracelular.

En la Figura 4.1 se muestran las principales fuentes de ruido que actúan sobre el
registro de cualquier potencial bioeléctrico. Una posible clasificación de interferencias
puede ser:

 Interferencias externas al equipo de medida:

 Capacitivas:
 Acoplamiento capacitivo con el paciente.
 Acoplamiento capacitivo con los conductores y el equipo.
 Inductivas.
 Originadas por la interfaz electrodo-electrolito-piel.
 Debidas a otros potenciales bioeléctricos.
 Debidas a otros sistemas fisiológicos.
 Debidas a cargas electrostáticas.

 Interferencias internas al equipo de medida:

 Provocadas por el transformador de la fuente de alimentación.


 Debidas al rizado de la fuente de alimentación.
 Ruido generado por los componentes electrónicos.

Las interferencias externas son todas aquellas que tienen su origen fuera del equipo
amplificador. La principal fuente de interferencia externa es, sin duda, la red de
distribución de energía eléctrica, que provoca una señal de interferencia de 60 Hz, ya
que las interferencias introducidas por otros equipos tienen generalmente frecuencias
superiores al ancho de banda de la señal bioeléctrica. Ésta es la responsable de todas
las alteraciones debidas al acople inductivo y capacitivo. Siendo el acople capacitivo de
la red eléctrica con el cuerpo del paciente la mayor fuente de ruido presente en el
registro de cualquier potencial bioeléctrico.
96
No obstante, conviene tener presente posibles interferencias o artefactos introducidos
por otros biopotenciales como por ejemplo los artefactos introducidos por el sistema
respiratorio en el registro del ECG. Estos artefactos pueden minimizarse variando la
colocación de los electrodos, de forma que éstos se posicionen en lugares donde su
influencia sea mínima.

4.1.2.1. Interferencias capacitivas.

Son debidas al acople capacitivo que existe entre los diferentes elementos del sistema
de medida y la red de suministro eléctrico. Provocan la aparición sistemática de una
señal de 60 Hz en los registros bioeléctricos. Cabe diferenciar entre el acople capacitivo
con el paciente y el acople capacitivo con los conductores y el equipo.

4.1.2.1.1. Acoplamiento capacitivo con el paciente.

Produce el efecto más importante de todos los ruidos y condiciona totalmente el diseño
del amplificador. A continuación, se describe sus causas y las técnicas para atenuar sus
efectos.

Se puede considerar el cuerpo humano como un conductor volumétrico. Este conductor


está separado por el aire de los conductores de la red eléctrica que se encuentran en el
ambiente donde se realizan las medidas. Se forman de esta manera dos condensadores
cuyas armaduras son: el sujeto y los conductores vivos y de tierra respectivamente,
asumiendo el aire el papel de dieléctrico. En este modelo se ha despreciado la
impedancia del cuerpo humano por que la resistencia que presentan los tejidos internos
es muy baja.

60 Hz

110v

Figura 4.2. Acople capacitivo de la red con el cuerpo del paciente.


97
Los condensadores formados no son en absoluto despreciables, dependiendo de la
situación del paciente. Para un paciente bien aislado, en una cama con toma a tierra, se
podrían aceptar los siguientes valores:

Cr = 2 pF.
Cm = 520 pF.

Para el caso de un paciente en cama sin toma a tierra y tocando la barandilla, estos
valores se elevan a:

Cr = 200 pF.
Cm = 3300 pF.

Se forma un divisor de tensión que hace que el paciente se encuentre a una tensión con
respecto a tierra de un valor aproximado:

Cm 2
V p V R x
Cr +C m = 2 √ 2 x 110 x 2+ 520  1.19 V Ecuación (4.1)

Recordando que los niveles del ECG y del EOG sobre la piel son aproximadamente de 1
mV y 10 mV respectivamente, queda clara la importancia de esta señal de interferencia.
Esta es el ruido que más enmascara la señal y condiciona el diseño del amplificador.

4.1.2.1.2. Acoplamiento capacitivo con el equipo de medida.

El acople capacitivo de la red de suministro eléctrico con los cables que conducen la
señal al equipo hará que aparezcan corrientes de desplazamiento. Estas corrientes
fluirán a tierra a través de las interfaces electrodo-piel, el cuerpo del paciente y el tercer
electrodo del amplificador, produciendo tensiones en modo común y diferencial. En la
Figura 3.2 puede observarse el acople capacitivo mediante las capacidades C1 y C2.

98
Figura 4.2. Acoplamiento capacitivo con los conductores.

Asumiendo que las impedancias de los condensadores ( Z MC 1 y Z MC 2) y de entrada del


operacional Z D son mucho mayores que las impedancias de los electrodos ( Z e1, Z e2 y
Z e3). De esta forma, considerando las capacidades acopladas y las impedancias de los
electrodos y despreciando la resistencia del cuerpo, aparece una tensión en modo
común:

U MC = Z e3 (i D 1 + i D 12 ¿ Ecuación (4.2)

Al mismo tiempo, aparece una tensión diferencial debida a diferencias entre las
corrientes y desequilibrios de las impedancias de la interfase electrodo-piel:

U D = Z e1 i D 1 + Z e2 i D 2 Ecuación (4.3)

Una posibilidad para reducir este tipo de interferencia es procurar que las impedancias
electrodo-piel sean bajas y que el desequilibrio entre ellas sea mínimo, lo cual no
siempre es posible.

Otra solución consiste en disminuir las corrientes utilizando conductores apantallados


con la pantalla conectada a masa. Al realizar esta conexión el acople capacitivo se
99
produce con las pantallas, derivándose a masa las corrientes de frecuencia 60 Hz. Sin
embargo, esta conexión producirá una disminución de la impedancia de entrada de
modo común (CMRR) del amplificador, debido a que dichos cables tienen una capacidad
entre el conductor interno y la pantalla del orden de 30 pF/m a 100 pF/m y quedarían en
paralelo con la impedancia en modo común del amplificador. Al mismo tiempo, estas
capacidades no son iguales para cada cable (electrodo) de forma que se produce un
desajuste de la tensión en modo común vista por cada terminal de entrada del
amplificador y en consecuencia se genera una tensión diferencial proporcional a la
tensión común que puede tener más influencia que la disminución de impedancia vista
anteriormente. Este problema se puede solucionar conectando el apantallamiento de los
cables a la tensión en modo común como indica la Figura 4.3.

Figura 4.3. Apantallamiento de los cables de entrada mediante guarda activa.

De esta forma el acoplamiento capacitivo se produce con la pantalla y no con el


conductor interno, por lo tanto, las corrientes de 60Hz se derivan a masa a través del
seguidor, sin interferir en los cables que transportan la señal. Esta conexión tiene la
ventaja de no disminuir las impedancias de entrada en modo común como sucede
cuando se conectan directamente las pantallas de los cables a masa o a otro potencial.

4.1.2.2. Interferencias inductivas.

Este tipo de interferencias son causadas normalmente por la red eléctrica. Por ella
circulan corrientes variables de 60 Hz que provocan la aparición de campos magnéticos
variables con el tiempo. Estos campos magnéticos atraviesan los bucles formados en el
sistema de medida, induciendo ellos tensiones de 60 Hz de acuerdo con la ley de Lenz:

−d d
e= B . ds Ecuación (4.4)
dt dt ∫
=

100
donde:
e: Fuerza Electromotriz inducida.
: Flujo.
B: Inducción Magnética.

Suponiendo los siguientes valores:

B = Bo · sen wt (campo senoidal)


A = área

Queda:

e (t) = A· Bo · w· cos wt Ecuación (4.5)

Estas tensiones son proporcionales al área del bucle en cuestión y a la frecuencia del
campo magnético que interfiera. Las más importantes se inducen en el bucle formado
por el paciente, los conductores y el propio equipo. La mejor solución para reducir la
interferencia magnética, es hacer el área del bucle de medida tan pequeña como sea
posible, lo cual se puede conseguir trenzando los cables de medida desde el equipo de
registro hasta las proximidades del paciente o utilizando cable coaxial adecuado con una
conexión apropiada.

Figura 4.4. Bucle de interferencia magnética.

101
Figura 4.5. a) Disposición correcta de cables.
b) disposición incorrecta.

Las interferencias de 60Hz son las que más afectan al diseño del sistema de
amplificación, por lo que en el caso de que las medidas anteriores no sean suficientes
puede adoptarse otro tipo de soluciones complementarias como incluir un filtro notch a
60Hz en la cadena de amplificación con el inconveniente de que se pierde la información
a dicha frecuencia.

4.1.2.3. Potencial de contacto electrodo – piel.

Al colocar un electrodo en contacto con la piel a través de un electrolito se produce una


distribución de cargas entre la interfaz electrodo-electrolito que da lugar a la aparición de
un potencial (potencial de media celda). Si el electrodo se mueve respecto del electrólito,
se producirá una alteración en la distribución de la carga que provocará una variación
transitoria del potencial de media celda. De la misma forma, en la interfaz electrolito-piel
también existirá una distribución de cargas y, por tanto, un potencial de equilibrio que
variará si se produce movimiento entre la piel y el electrolito. Este tipo de interferencias
(motion artifact) producen una fluctuación de la señal a frecuencias muy bajas (<1 Hz),
no susceptibles de ser filtradas debido a la gran cantidad de información que poseen a
estas frecuencias la señal del ECG y del EOG, y en general la mayoría de los
biopotenciales.

Este problema se puede solventar fijando el electrodo a la piel, de forma que se evite
cualquier movimiento. Y utilizando electrodos de materiales que presenten
polarizaciones menores como los electrodos de plata-cloruro de plata.

La unión electrodo-electrolito-piel puede modelizarse eléctricamente como una tensión


continua en serie con una impedancia tal como se muestra en la siguiente Figura 4.6.

102
Figura 4.6. Potencial de contacto electrodo piel.

En una amplificación diferencial si los potenciales de contacto fueran iguales no existiría


ningún problema. En la práctica es imposible conseguir esta igualdad, por lo que la señal
bioeléctrica estará superpuesta a una tensión continua, siendo ambas amplificadas. Ello
limita la ganancia de la primera etapa amplificadora, ya que esta tensión continua podría
saturar el amplificador.

4.1.2.4. Interferencias provocadas por otros potenciales bioeléctricos.

Una fuente de interferencias, difícilmente evitable, la constituye la actividad de otros


potenciales bioeléctricos presentes en el organismo. Pueden citarse, por ejemplo, las
interferencias del ECG (electrocardiograma) materno en el registro del ECG fetal, o las
del EMG (electromiograma) sobre el ECG y especialmente sobre la señal del ECG
registrada en una prueba de esfuerzo. Considerando ahora el EOG pueden detectarse
interferencias provocadas por el EEG (electroencefalograma) o por acciones musculares
como masticar, abrir o cerrar los ojos.

No existe una forma clara de evitar dichas interferencias. Así, por ejemplo, en el registro
de las señales del ECG es importante que el paciente esté relajado y en reposo,
procurando que su actividad muscular sea la mínima posible.

Otra solución es la colocación adecuada de los electrodos para que una señal quede
realzada respecto de la otra. Ello es posible por la influencia que tienen los factores
geométricos en la amplitud y forma de las señales bioeléctricas.

4.1.2.5. Interferencias provocadas por otros sistemas fisiológicos.

La interacción entre los diferentes sistemas fisiológicos de los seres vivos se traduce en
la aparición de interferencias sobre la señal que se desea medir. Una de las
interacciones más estudiadas es la variación de las señales del sistema cardiovascular
por la acción del sistema respiratorio. Este provoca cambios de amplitud y de forma en
los registros del ECG, así como una variación del ritmo cardíaco.

103
4.1.2.6. Interferencias provocadas por cargas electroestáticas. Interferencias
triboeléctricas.

Reciben este nombre las interferencias provocadas por la circulación, a través de los
electrodos a tierra, de las cargas electrostáticas almacenadas en el cuerpo del paciente.
Ello provoca, normalmente, fluctuaciones de la línea base y, en ocasiones, la saturación
de los amplificadores.

La generación de la carga electrostática puede tener diversos orígenes y es almacenada


en la capacidad creada entre la superficie corporal y tierra. Esto provoca la aparición de
una diferencia de potencial entre el cuerpo y tierra que dependerá de la carga generada.
Las cargas triboeléctricas también provocan interferencias de modo común e
interferencias de modo diferencial cuya magnitud depende, sobre todo, de las
impedancias de las interfaces electrodo-piel.

4.1.2.7. Fuentes internas de ruido.

Se consideran interferencias internas, aquellas que son provocadas por fuentes incluidas
en el bioamplificador. Entre ellas destacan las causadas por la fuente de alimentación y
las debidas al ruido interno de los componentes electrónicos en general.
4.1.2.7.1. Interferencias debidas a la fuente de alimentación.

Si la fuente de alimentación del amplificador incorpora un transformador, el rizado de


100 Hz, correspondiente a la rectificación de los 60 Hz de la red, provocara
interferencias que pueden ser importantes.

Cuando se utilizan amplificadores operacionales el problema se reduce a elegir una


componente con una relación de rechazo (CMRR) frente a variaciones de la tensión de
alimentación (PSRR, power supply rejecction ratio) lo suficientemente grande. Este dato
lo suministra el fabricante.

También influye el valor del rechazo al rizado del regulador de la fuente de alimentación.
Una solución aceptable para solucionar estos problemas es usar baterías para alimentar
el amplificador, que además de reducir el ruido de alimentación, añaden seguridad al
paciente.

En cualquier caso, pueden utilizarse redes de filtrado en las alimentaciones que sirven
para atenuar la interferencia del rizado de la fuente como se observa en la Figura 4.7.

104
Figura 4.7. Circuito con redes de filtrado para las fuentes de alimentación.

4.1.2.7.2. Ruido generado por los componentes electrónicos.

Los componentes electrónicos, bien sean activos o pasivos, generan señales de ruido,
en general aleatorias, que contaminan las medidas. En los sistemas que requieren
grandes amplificaciones, este problema puede ser crítico y exige una adecuada
selección de los componentes de las primeras etapas.

Los componentes pasivos, especialmente las resistencias, que tienen una densidad
espectral de ruido:
V
( )
e n=√ 4 KTR
√ Hz Ecuación (4.6)
donde:
K: constante de Boltzman, 1.38x10-23 (J/°K.)
T: temperatura absoluta. (°K)
R: resistencia. (W)

Siempre que sea posible interesará utilizar valores bajos.

En cuanto a los componentes activos, la única medida posible es la selección de los que
presenten menores niveles de ruido, dentro de las exigencias del diseño, incluidas las
económicas.

En todo caso, es muy recomendable limitar mediante filtros la banda de funcionamiento


todo lo que permita el espectro de la señal de interés.

4.2. Diagrama de bloques de un bioamplificador.

105
Cualquier sistema de acondicionamiento de biopotenciales se va a ajustar a un mismo
diagrama de bloques, como el mostrado en la Figura 4.8. Este diagrama comienza en
los electrodos, los cuales transforman las corrientes iónicas del cuerpo en corrientes
eléctricas. En seguida se encuentra un preamplificador, con alto rechazo al modo común
(CMRR) y alta impedancia de entrada (Zen). Seguidamente aparece un amplificador de
aislamiento, con el fin de que no exista conexión eléctrica entre el paciente y la
instalación eléctrica. Después se realiza un filtrado analógico de la banda de frecuencias
de interés y puede que exista una última etapa de amplificación que puede estar
incorporada también en la etapa de filtrado. Además, se requiere de un sistema de
alimentación que tenga dos fuentes aisladas eléctricamente, una para cada lado de la
barrera de aislamiento de manera que el paciente mantenga el aislamiento con la
instalación eléctrica.

AMPLIFICADOR
ELECTRODO PREAMPLIFICADOR FILTRO
AISLADO

FUENTE 1 FUENTE 2

Vdd 1 Vss 1
Vdd 2 Vss 2

Figura 4.8. Diagrama de bloques de un sistema de captura de biopotenciales.

A continuación, se analizarán con más detalle las características que debe cumplir cada
bloque.
4.2.1. Preamplificador.

La amplificación de cualquier biopotencial es un proceso delicado, en el que además de


incluir una gran ganancia, es necesario tener en cuenta las interferencias que
enmascaran la señal. La interferencia con una influencia más directa y negativa sobre la
amplificación es el acoplamiento capacitivo de la red eléctrica sobre el cuerpo del
paciente.

4.2.1.1. Selección del Modelo de Amplificación

En el estudio de las interferencias capacitivas vistas en el numeral 4.1.2.1.1.


Acoplamiento capacitivo con el paciente, se realizaron los cálculos y se demostró que
puede aparecer una tensión en modo común acoplada por la red al cuerpo del paciente
de valor 1.19 V, lo que permite utilizar amplificación diferencial para atenuar en todo lo
posible la señal en modo común.

Para demostrar esta afirmación se iniciará el estudio por el sistema de amplificación más
básico, la amplificación no diferencial. Este modelo se muestra en la figura 4.9., dónde

106
se puede observar cómo la señal de red se acopla a un paciente sobre quien se está
realizando una medida unipolar o absoluta respecto a un punto de referencia.

60 Hz

110 V

Figura 4.9. Modelo equivalente de un sistema básico de amplificación

En el circuito mostrado, se calcula la señal de entrada del amplificador considerando que


la impedancia de este es infinita. Para ello en la Figura 4.10., se presenta el circuito
equivalente al sistema de amplificación no diferencial.

En este diagrama la señal que se tiene a la salida del amplificador es la suma ponderada
de la tensión bioeléctrica y la de interferencia debida al acoplamiento capacitivo de la red
eléctrica. El coeficiente de ponderación es función de los condensadores y de las
impedancias de contacto de los electrodos Ze.

107
Figura 4.10 Amplificación no diferencial.

Asumiendo para la resistencia de contacto electrodo piel un valor de 10 k y teniendo en


cuenta que para el valor dado para Cm a la frecuencia de red la impedancia que le
corresponde (Xcm) es de unos 6 M. Se puede despreciar el efecto de esta impedancia
en el acoplamiento. Con esta aproximación la tensión de interferencia a la entrada del
amplificador será:

Z e1
V interf . = Z e 1+
1 x V¿ Ecuación (4.7)
Cr S

Suponiendo que la impedancia Ze1 es puramente resistiva tomando módulos queda:

Z e1 C r
|V interf .| = 2 2 2 x V¿ Ecuación (4.8)
√Z e1 Cr ❑ +1

Con los valores dados para Cr = 2 pf y Ze1 = 10 k, el discriminante de la raíz en la


expresión anterior puede aproximarse a la unidad. En consecuencia, una aproximación
para la señal de interferencia vendrá dada por:

|V interf| = Z e1 C r  |V ¿| = 10000x2x10−12 x 2√ 2 x 110 = 6.2 μV Ecuación (4.8)

108
El nivel de la señal de interferencia es mayor que él de la señal bioeléctrica, el nivel
medio del ECG es de 1 mV y del EOG de pocos mV. Este razonamiento demuestra que
es imprescindible la amplificación diferencial para atenuar en lo posible el gran
componente existente de ruido en modo común.

4.2.1.2. Amplificación diferencial.

En la Figura 4.11 se muestra un sistema de amplificación diferencial. Recordar que un


amplificador diferencial es aquel que amplifica la diferencia de tensiones existentes entre
sus entradas respecto a la de referencia.

60 Hz

110V

Figura 4.11. Sistema de amplificación diferencial.

Este esquema se puede modelar en el circuito mostrado en la Figura 4.12.

109
Cr=2pF
Ze1=10K

Vred = 110 Veff. Vecg

Cm=520pF Ze2=10K

Figura 4.12. Circuito equivalente para la amplificación diferencial.

El paciente está sometido a una tensión en modo común de valor:

Cm 2
V p V R x = 2 √ 2 x 110 x  1.19 V Ecuación (4.9)
Cr +C m 2+ 520

El nivel de la señal de interferencia referido a la entrada, que sería una señal diferencial
tal que provocara un nivel en la señal de salida igual al de la interferencia, se define:

V MC A MC V MC
V interf = AD = CMR
Ecuación (4.10)

Si se exigiese una señal de interferencia menor a 1% del nivel de la señal (en el caso de
ECG) sería necesario un rechazo al modo común de:

V MC V MC 1.19
CMR
≤V interf → CMR ≥ V interf
= 10−5
= 119000

CMRR = 20 log CMR = 20log119000 = 101.5 dB

Para el caso de EOG todavía es mayor el rechazo obtenido.

La conclusión que se saca de las deducciones anteriores es que el amplificador


diferencial debe tener un rechazo al modo común muy elevado.

110
4.2.1.3. Ruido de red diferencial.

El acoplo capacitivo de la red con el paciente no sólo provoca la existencia de ruido en


modo común, si no que hace aparecer también una interferencia de modo diferencial
derivada del modo común. En otras palabras, aunque se consiguiese un amplificador
diferencial con un rechazo al modo común de valor infinito seguiría existiendo
interferencia de la red. Esta interferencia diferencial se debe a las impedancias finitas de
entrada del amplificador de instrumentación.

La Figura 4.13. muestra un amplificador diferencial con impedancias de entrada,


diferencial y de modo común, finitas:

Figura 4.13. Amplificación diferencial con un dispositivo real.

El esquema eléctrico de este circuito, mostrado en la Figura 4.14., será el utilizado para
calcular la influencia de la tensión de la red a la entrada del amplificador.

Figura 4.14. Esquema eléctrico de una amplificación diferencial real.

Para ver la influencia a la entrada del amplificador de cada una de las dos tensiones
presentes, Vecg y Vred, se analiza el circuito aplicando superposición.
111
Para simplificar los cálculos se asume que la impedancia diferencial de entrada del
amplificador es infinita. Lo que no supone ninguna limitación de los resultados obtenidos.
Tener en cuenta que este es el peor caso, ya que lo ideal, siempre al referirse a la señal
de interferencia, es que esta impedancia es nula.

Se analiza primero la influencia de la tensión de red. Para ello se supone nula Vecg. Con
esta suposición y la aproximación referente a Zd queda el circuito eléctrico mostrado en
la Figura 4.15 así:

Figura 4.15. Esquema eléctrico para el cálculo de la interferencia


diferencial de red.

El circuito genera el siguiente sistema de ecuaciones:

Resolviendo para V d se tiene:

112
Desarrollando la ecuación anterior:

Estas expresiones pueden simplificarse suponiendo que Z MC  6 MW para 60 Hz. Como


siempre se cumplirá que Z m 1y Z m 2 > 6 MW, se puede aproximar que el puente está
alimentado a una tensión V I :

De esta forma queda:

113
Como las impedancias de los electrodos y cables Z e1y Z e2 serán siempre mucho
menores que Z m 1y Z m 2 puede apreciarse que la tensión diferencial Vd debida a la red es
muy pequeña:

En segundo lugar se va a calcular el efecto de la señal electrocardiográfica. Para ello se


supondrá nula la tensión de red.

Figura 4.16. Esquema eléctrico para el cálculo de la componente de ECG.


El sistema de ecuaciones que permite el cálculo de la tensión diferencial de entrada al
amplificador es el siguiente:

114
Resolviendo para Vd con la regla de Cramer:

Desarrollando esta expresión:

V ecg (X m + X r Z mc 2 X m + X r Z mc1 Z e 2+ Z mc1 Z mc 2+ X r Z mc1 Z mc 2)


Vd  ________________________________________________

❑2

❑2 =
X r Z mc1 Z mc 2+ Z e 1 Z e2 X m + X e1 Z mc 2 X m+ Z mc 1 Z e2 X m + Z mc1 Z mc 2 X m+ X r Z e 1 X m + X r Z e1 Z e 2+ X r Z e 1 Z mc2 + X r Z mc1 X m +
En este caso, despreciando el efecto de los condensadores, puesto que se supone que
Zcm//Zcr 6 Mpara 60 Hz y se cumplirá que Zm1+Ze1 y Zm2+Ze2 > 6 M, se puede
aproximar que:

115
Z m 1 +Z m 2
Vd = V ecg Z e 1 + Z e 2+ Z m 1+ Z m 2

Realizando la suposición que las impedancias de los electrodos y cables Ze1 y Ze2 será
siempre mucho menores que Zm1 y Zm2 se obtiene que:

Vd  V ecg

La tensión diferencial de entrada al amplificador se obtiene sumando las respuestas


parciales a cada uno de los estímulos de entrada:

V d =V dA +V dB

V ecg X r Z mc1 X e 2+ Z e 1 Z mc2 X m + X r Z mc2 X m + X r Z mc 1 Z e2 + Z mc1 Z mc2 X m + X r Z mc 1 Z mc2 X m V ¿ −Z e1 Z mc 2+ Z m


V d= + V d=
❑2 ❑1

Si se hubieran tenido en cuenta las aproximaciones realizadas se hubiesen obtenido:

Z e2 Z e1
V d =V 1 −
Z m 2 Zm 1
+ V ecg

La expresión obtenida prueba que la interferencia de red se recoge también en forma


diferencial, apareciendo señal de 60 Hz entre las dos entradas del amplificador.

Para minimizar el ruido debido a la tensión de red deben considerarse las siguientes
opciones:

 El producto ZmiZmj es mayor que cualquier producto de la forma ZmiZei o ZeiZej.

 Zmc1 se puede considerar igual a Zmc2. No obstante, esta suposición aunque


simplifica los cálculos no puede realizarse generalmente salvo para obtener
valores simplificados puesto que las variaciones entre Zm1 y Zm2 pueden llegar
al 50% según la tecnología del amplificador.

Simplificando la expresión anterior con las aproximaciones definidas se tiene:

X m Z mc Z e 2−Z e 1 X m Z e 2−Z e 1
V d = V interf V ¿ 2 2
=V ¿
Z X m+ Z
mc mc Xr X m + X r Z mc

116
Sustituyendo Xm y Xr por sus valores, Xm=1/jwCm, Xr=1/jwCr:

Cr Z e2−Z e1
V d =V interf V ¿
C r +C m Z mc

Según esta ecuación la manera de hacer desaparecer la interferencia diferencial de red


sería hacer iguales las impedancias de contacto electrodo-piel, pero esto es imposible.

La otra alternativa, única viable, es hacer la impedancia de entrada al amplificador


infinita. Este resultado ya se podía comprobar al realizar la suposición de que las
impedancias de entrada a los amplificadores fuesen mucho mayores a las del contacto
electrodo-piel y de los cables.

Suponiendo una impedancia electrodo-piel de 10 k, y una dispersión entre ellas del
10% (1k), la ecuación anterior permite obtener el valor mínimo de la impedancia en
modo común necesario para obtener una señal de interferencia a la entrada menor del
1% de la señal del ECG. La señal de interferencia deberá ser menor de 10 V. Para ello
se necesitarían impedancias de modo común superiores a 240 M para el caso de
acoplamiento del paciente con la red comentado en el apartado anterior.

Otra fuente de distorsión importante que afecta a la captación del ECG o de cualquier
otro biopotencial es la naturaleza compleja de la impedancia de contacto electrodo-piel.
Estas poseen valores elevados en el rango de frecuencias donde se encuentra la mayor
información de los biopotenciales. Esto obliga a exigir al amplificador impedancias de
entrada muy elevadas, idealmente infinitas, para hacer despreciable la corriente que
pasa por esta interfaz y así minimizar los efectos de su impedancia.

Concluyendo, el amplificador debe tener una impedancia de entrada muy elevada para
evitar la interferencia diferencial de red, y la influencia de la impedancia compleja de la
interfaz electrodo-piel.

El amplificador necesario para captar y amplificar la señal bioeléctrica deberá reunir las
siguientes características:
 Utilizar amplificación diferencial para atenuar las señales de modo común.
 Poseer un rechazo al modo común muy elevado.
 Poseer impedancias de entrada muy elevadas para disminuir la interferencia
diferencial debida a la red y evitar la distorsión del biopotencial.
4.2.1.4. Conexión de un amplificador de Bioinstrumentación.

Es necesario hacer una consideración de tipo práctico en el sentido que los


amplificadores de instrumentación necesitan un camino entre cada entrada y masa para
el cierre de las corrientes de polarización de los transistores de la primera etapa, es
decir, para fijar correctamente el punto de trabajo de los mismos. De acuerdo con el
criterio de requerir impedancias de modo común muy elevadas, se renuncia a establecer
dicho camino mediante resistencias externas entre cada terminal de entrada y masa, un
esquema de dos electrodos como el de la Figura 4.11, no garantiza la estabilidad en
117
corriente continua de la etapa de entrada del amplificador de instrumentación. Para
solucionar este problema se recurre a la conexión de un tercer electrodo entre el
paciente y masa, como indica la siguiente figura:

Figura 4.17. Electrodo de masa.

Este tercer electrodo cumple una función adicional, ya que permite reducir la señal de
modo común (CMRR) a la que está sometido el paciente.

La impedancia del tercer electrodo Z e3 es mucho menor que la asociada a la capacidad


de acoplamiento entre paciente y tierra Cm. La resistencia que ofrece el paciente entre
electrodos puede despreciarse debido a la alta conductividad que ofrece la dermis. La
tensión de modo común a la que está sometido el paciente puede escribirse como:

V¿
V mc = Z
X Cr + Z e 3 e3

V¿
V mc = 1 Z
+ Z e 3 e3
2 f Cr

Suponiendo una impedancia electrodo-piel de 10 k a 60 Hz para Ze3, y 2 pF para C r la


tensión en modo común de pico valdrá:

118
2 √ 2 ( 110 ) 311.12
.10000= .10000
V mc = 1
+10000
1591559431
( 2 π 50 ) 2. 10−12

V mc =1.59 mV

Comparando este valor con el que se obtenía sin tercer electrodo se puede apreciar que
la señal de modo común se reduce aproximadamente por un factor de 1000.

Esta solución puede disminuir el nivel de seguridad del paciente, ya que introduce un
camino de baja impedancia entre el paciente y masa para que se cierren posibles
corrientes de fugas. Además, complica las medidas, ya que existe otro elemento a
conectar y vigilar. Sin embargo, es la más utilizada ya que existen técnicas que superan
la desventaja que supone para el paciente la conexión del tercer electrodo.

4.2.1.5. Tierra virtual.

Es evidente que la desventaja principal que supone la introducción del tercer electrodo
es la disminución de la seguridad, puesto que habilita un posible camino a tierra de baja
impedancia, a través del paciente, de las corrientes que por cualquier causa puedan
generarse en el mismo sistema de amplificación y en su entorno (situaciones típicas de
peligro se presentarán más adelante retomando el tema de seguridad del paciente y
aislamiento; por el momento sólo debe asumirse que la conexión del tercer electrodo
presenta una vía de riesgo).

Con el objetivo de conservar las ventajas del tercer electrodo sin poner en peligro al
paciente, una posibilidad sería minimizar las corrientes de fuga mediante la conexión de
una resistencia de elevado valor entre el tercer electrodo y tierra, ya que ello permitiría el
cierre de las corrientes de polarización facilitando el funcionamiento del sistema, y
minimizaría las corrientes de fuga a través del paciente en caso de que éste se
encontrara eventualmente a una tensión elevada debido a una situación accidental. Sin
embargo, al conectar una resistencia de elevado valor entre el tercer electrodo y tierra,
se pierde una de las ventajas que suponía la conexión del tercer electrodo, pues
aumenta la tensión de modo común y, por tanto, el nivel de interferencia.

Una posibilidad alternativa consiste en conectar al paciente, a través del tercer electrodo,
a un punto que está al potencial de tierra, pero manteniendo entre el cuerpo y tierra una
impedancia elevada Ro, por ejemplo 10 M. Esto se consigue, por ejemplo, uniendo el
tercer electrodo a un punto que está a potencial de tierra a través del circuito de la
Figura 4.17. Este esquema presenta las mismas ventajas que la conexión del tercer
electrodo, pero aumenta la seguridad del paciente. En efecto, en situación normal, el
funcionamiento en modo lineal del amplificador operacional asegura la conexión del
tercer electrodo a un punto de potencial cero a través de una impedancia equivalente
muy elevada. Sin embargo, en situación anormal (cuando el paciente se encuentre a una
tensión en modo común elevada) el amplificador operacional dejará de funcionar en
119
modo lineal y la resistencia efectiva entre el paciente y tierra será la suma de la
correspondiente al tercer electrodo y la de 10 M.

Figura 4.18. Conexión del 3º electrodo Figura 4.19. Conexión del paciente
a tierra virtual. a tierra virtual.

Una variante de esta situación sería incluir al paciente en el bucle de realimentación del
seguidor (Figura 4.18); de esta manera el paciente, o parte de él, está al potencial de
tierra virtual, desapareciendo la señal de modo común (dado que en Ze’ no existe caída
de tensión). Esta técnica permitiría la amplificación no diferencial.

4.2.1.6. Realimentación activa.

La técnica de realimentación activa consiste en situar el tercer electrodo a un potencial


de referencia que es proporcional a la tensión de modo común del paciente y de signo
contrario. El efecto es reducir la impedancia global del tercer electrodo sin disminuir la
seguridad del paciente. El circuito utilizado se muestra en la Figura. 4.20:

Figura. 4.20. Técnica de Realimentación Activa.

El amplificador inversor toma la señal de modo común U mc , la amplifica y la invierte. Se


cumple entonces:
120
−R 1
U 0 =A U MC ; A=
R2

Del circuito de la siguiente figura, se puede deducir que la impedancia equivalente entre
el punto del cuerpo donde se sitúa el tercer electrodo y tierra viene dada por:

Z e3

U MC AU MC

iD 2

XC2 iD 1 iD 1 iD 2

Figura 4.21. Cálculo de la impedancia equivalente Zeq’.

Z e3
Z eq
1− A

La ecuación anterior indica que la realimentación activa reduce la impedancia global del
tercer electrodo por un factor equivalente, aproximadamente, a la ganancia A del circuito
de realimentación. Todo ello además sin disminuir la seguridad del paciente puesto que
la resistencia Ro limita la corriente, de paso, en caso de un aumento anormalmente
grande de la tensión de modo común, como ocurría en el caso visto anteriormente.

Además, la realimentación activa disminuye la interferencia de modo común,


aproximadamente, en la misma medida en que disminuye la impedancia del tercer
electrodo. En efecto, para demostrar dicha afirmación, se calcularán los valores de U MC ´
en cada caso, haciendo uso del esquema equivalente mostrado en la siguiente figura:

121
Figura 4. 22. Circuito equivalente para el cálculo de la tensión de modo común.

Para el caso de realimentación activa, la tensión en modo común queda definida por la
siguiente expresión:

Ze 3 X e 2
u MC ( 1 ) =E
( X e1 + X e2 ) Z e 3 + X e 1 X e2 ( 1− A )

En caso de no utilizarse realimentación activa, la tensión en modo común se calcula


haciendo A = 0, obteniendo así:

Z e3 X e2
u MC ( 2 ) =E
( X e1 + X e2 ) Z e 3 + X e 1 X e2

La relación entre ambas resulta ser, aproximadamente:

uMC ( 1 ) 1

uMC ( 2 ) 1− A

La ecuación anterior confirma que se produce una reducción de la tensión en modo


común en la misma proporción que disminuye la impedancia equivalente Zeq. Sin
embargo, ello no implica una reducción de la seguridad.

En efecto, la impedancia equivalente Zeq disminuye en el factor A mientras el


amplificador operacional funciona en zona lineal. En cambio, cuando la tensión de modo
común u MC se eleva por encima de un valor límite, la ganancia A se reduce
progresivamente haciendo que la impedancia Zeq aumente. Este valor límite viene dado
por:
122
u MC ¿

Según las consideraciones anteriores, convendría disponer de ganancias de


realimentación negativas y muy elevadas. Sin embargo, la ganancia A está limitada por
la saturación del amplificador de realimentación.

Un problema que presenta el circuito de realimentación activa, es su posible oscilación.


En este sentido, es conveniente introducir algún tipo de compensación.

4.2.1.7.- Técnicas de reducción de interferencia en modo común.

Tal y como se indicó en el apartado, el tercer electrodo en un amplificador diferencial


para señales bioeléctricas cumple dos funciones básicas; por un lado, permite la
circulación de las corrientes de polarización del amplificador y, por otro, reduce las
interferencias.

Se puede deducir que cuanto menor sea la impedancia del tercer electrodo Ze3’ menor
será la tensión de modo común u MCa la que estará sometido el paciente y, por tanto,
menores serán las interferencias derivadas de ella.

Sin embargo, existen dos inconvenientes para reducir esta impedancia. Por un lado, Ze3
es la impedancia de la interface electrodo-piel y, aunque se pueden adoptar medidas
para reducirla al máximo (preparación de la piel, utilización de geles, electrodos de gran
tamaño), no es muy controlable y, por supuesto, no es nula. Por otra parte, al utilizar
amplificadores no aislados, cuanto menor sea Ze3’ mayor será la corriente que
atravesará el cuerpo en caso de derivación accidental.

Para intentar paliar estos inconvenientes y reducir las interferencias sin afectar, en gran
medida, la seguridad del paciente, se utilizan una serie de técnicas dos de las cuales se
van a detallar en los apartados siguientes. Estas técnicas suelen aplicarse en equipos
que no impliquen medidas directas; en este caso se utilizan sistemas aislados.

4.2.1.8.- Elección del preamplificador.

Con todo lo expuesto anteriormente en este mismo apartado, ya se puede llegar a una
conclusión sobre la etapa de aislamiento:

1. Debe ser un amplificador diferencial, mejor aún si se trata de un amplificador de


instrumentación, ya que de esta manera va a cumplir los dos siguientes puntos.
2. El rechazo al modo común, CMRR, debe ser muy elevado, de alrededor de 120 dB.
más según las señales bioeléctricas.
3. La impedancia de entrada debe ser muy elevada, entorno a 1010.

123
4. Si se trata de un amplificador de instrumentación, es necesario montar la
realimentación activa, con el fin de polarizar la etapa de entrada sin riesgos para el
paciente.

4.2.2. El amplificador de aislamiento.

El sistema que mejor minimiza los riesgos en la medida de biopotenciales es el aislado.


Un amplificador aislado está compuesto por dos subsistemas que están aislados
galvánicamente entre sí. El mecanismo de acoplamiento que transfiere la señal del
subsistema de entrada al de salida puede ser magnético, capacitivo u óptico. La etapa
de entrada tiene su alimentación y referencia aisladas de la alimentación y referencia de
la etapa de salida. Esto se consigue a partir de una fuente de alimentación única con un
convertidor continua a continua, o utilizando dos fuentes de alimentación, como es lógico
en este caso serán baterías las que alimenten al primer subsistema. Todo lo expuesto se
ilustra en la Figura 4. 23.

Figura 4.23. Esquema eléctrico de un sistema de amplificación aislado.

4.2.1.1.- Amplificadores aislados por acoplamiento óptico.

Un sistema de aislamiento óptico está constituido por un emisor, por ejemplo, un LED, y
un receptor, por ejemplo un fotodiodo o un fototransistor. El conjunto de ambos permite
aislar galvánicamente dos partes de un conjunto y debe, al mismo tiempo, transmitir la
señal entre ambas con la menor distorsión posible. En este tipo de aislamiento la señal
que se introduce en el circuito emisor puede ser la señal original en banda base, o bien

124
una señal modulada, generalmente en ancho de pulso, por la primera. En ambas
situaciones se tienen ventajas e inconvenientes.

Si la señal que se transmite está en banda base, se evita la necesidad de la modulación,


resultando un sistema muy simple. El problema es la poca linealidad de los dispositivos
ópticos, lo que hace necesario disponer de circuitos de emisión y recepción
perfectamente acoplados.

Una solución alternativa consiste en aplicar al circuito emisor una señal modulada, por
ejemplo, en ancho de pulso, por la señal original. En este caso, aunque los mecanismos
de aislamiento son iguales, la linealidad del sistema no radica en el circuito de
aislamiento óptico, ya que la señal a transmitir tiene únicamente dos niveles de tensión,
sino en el sistema de modulación. En general, para este tipo de aislamiento está más
extendido el uso de sistemas de modulación que la transmisión de la señal en banda
base.

4.2.2.2. Amplificadores aislados mediante acoplo por transformador.

En este caso, cuando la etapa de entrada y la de salida se acoplan con un


transformador, es necesario modular la señal (FM, AM, PWM). Esto es así porque el
primario de un transformador, una bobina conectada entre la señal de entra y masa, se
comporta como un filtro paso alto que atenúa y distorsiona las muy bajas frecuencias de
la mayoría de los biopotenciales.

Un sistema de este tipo estará compuesto por una etapa moduladora, un transformador
que se encargará de realizar el aislamiento galvánico entre la entrada y la salida y la
etapa demoduladora para recuperar la señal .

4.2.3. Sistema de alimentación.

Para conseguir un aislamiento completo entre el paciente y la tierra no basta con


emplear el amplificador de aislamiento. Es necesario añadir un sistema de alimentación
aislado para la parte de la barrera de aislamiento en la que se encuentra el paciente.

Por tanto, se necesitan dos fuentes de alimentación aisladas, sin conexión eléctrica, una
para cada lado de la barrera de aislamiento. La alimentación de la zona de filtrado no
presenta ningún problema, ya que se puede alimentar con una fuente de alimentación
conectada a tierra. Sin embargo, la alimentación de la zona del paciente debe estar
aislada, lo cual se puede conseguir de dos formas distintas, cada una con sus ventajas e
inconvenientes.

4.2.3.1. Conversor DC-DC con aislamiento.

A partir de la alimentación de la zona de filtrado se puede obtener una fuente aislada


empleando un conversor DC-DC con aislamiento. La ventaja que presenta esta solución
125
es que la alimentación de la zona aislada no depende de batería, por lo que no necesita
mantenimiento. Además, no hay graves problemas de consumo en la zona aislada. El
inconveniente es que puede introducir ruidos por la alimentación y normalmente los
precios de estos conversores son elevados. En la Figura 4.24 se muestra el esquema
interno del integrado 722, de Burr-Brown.

En el caso de utilizar el amplificador de aislamiento ISO212P, bastaría con una única


alimentación de 15V puesto que proporciona una señal aislada de ±5v mediante un
conversor DC-DC.

Figura 4.24. Conversor DC-DC aislado con dos salidas simétricas.

4.2.3.2. Fuente de alimentación a partir de batería.

La otra posibilidad es montar una fuente aislada a partir de baterías. Empleando una
batería de 12 V se puede obtener una salida simétrica de ±5 V, necesaria para alimentar
la etapa aislada.

En la Figura 4.25 se muestra el circuito de alimentación regulado con el 78L05 y el


79L05.

126
Figura 4.25. Fuente de alimentación a partir de batería.

CAPÍTULO 5.

BIOPOTENCIALES.

Introducción.

La membrana plasmática representa una barrera física entre el interior celular y su


medio circundante. La comunicación entre ambos espacios es posible por varios
mecanismos que se constituyen en señales biológicas. El más extendido es la
transferencia de cargas eléctricas, principalmente iones. En este capítulo se resumen las
principales propiedades generales de carácter biofísico y eléctrico que poseen las
membranas celulares. Tradicionalmente, esos fenómenos eléctricos pueden
considerarse equivalentes a los observados en circuitos eléctricos, ya que responden a
las mismas leyes físicas, por ejemplo, la ley de Ohm. No obstante, conviene recordar
que la naturaleza viva de la célula depende de su capacidad de regenerar y modular
esos mecanismos físicos de transferencia de cargas eléctricas para lo cual es preciso
consumir energía química.

Las células excitables ejercen sus funciones generando señales eléctricas en términos
de cambios de potencial de la membrana plasmática. Existen diferentes clases de
células excitables con funciones diversas, tanto en el reino animal como en el vegetal.
Así, ciertas plantas con capacidad de movimiento, como la mimosa (Mimosa púdica),
poseen células que generan señales eléctricas cuya función es activar el mecanismo
contráctil. En el reino animal, se encuentran ejemplos de células excitables: a) las
células musculares esqueléticas y lisas, que generan señales eléctricas que activan el
mecanismo contráctil; b) las células secretoras que activan el mecanismo secretor por
medio de señales eléctricas, las que producen a su vez, un aumento intracelular
transitorio de la concentración del ión Ca +¿¿; y c) las neuronas.

127
La función primordial de la neurona es integrar la información que le llega por los
contactos sinápticos y emitir señales a otras neuronas y a efectores (células musculares
y de órganos de secreción). Para realizar esta función las neuronas operan con señales
eléctricas especializadas, que consisten en la modificación del potencial de membrana (
V m).

Las neuronas son capaces de generar distintos tipos de señales eléctricas


especializadas, a saber:

 Señales breves y de gran amplitud, llamadas potenciales de acción, cuya función


es transmitir rápidamente y a grandes distancias la información por los axones (en
las células musculares los potenciales de acción aseguran la rápida propagación
de la excitación a lo largo de la fibra muscular para su contracción simultánea).

 Respuestas más lentas y de menor voltaje como, por ejemplo, los potenciales
marcapasos, los prepotenciales y pospotenciales, que controlan la excitabilidad y,
por lo tanto, tienen una importante función integradora.

 Señales de bajo voltaje resultantes de la acción sináptica, denominadas


potenciales sinápticos.

Estas modificaciones del potencial de membrana resultan de cambios en la


conformación de proteínas estructurales de la membrana plasmática llamados canales
iónicos. Estos cambios conformacionales dan lugar a un aumento de la permeabilidad
selectiva de la membrana a iones que se encuentran distribuidos asimétricamente a
ambos lados de la membrana. Los cambios de permeabilidad y la distribución asimétrica
de los iones dan lugar a corrientes iónicas que median las modificaciones del potencial
de membrana. Este tipo de actividad eléctrica de membrana es la base de lo que se
conoce con el nombre de respuestas activas.

De gran importancia funcional en las neuronas (y en otras células excitables) es la


propagación pasiva de señales eléctricas en la membrana celular. Esta propagación
produce cambios del potencial de membrana debidos a las propiedades eléctricas
pasivas de la membrana por lo que no se originan por modificaciones de la
permeabilidad iónica como las que subyacen en las respuestas activas. Este tipo de
actividad eléctrica de membrana se denomina respuesta pasiva. Una propiedad
importante de las células excitables, que está íntimamente ligada a la generación de los
dos tipos de respuestas, es la existencia de un umbral de excitación que determina que
las respuestas activas sólo se generen cuando el potencial de membrana alcanza un
valor crítico, umbral, mientras que para valores subumbrales del potencial de membrana
las respuestas son pasivas.

Las propiedades pasivas determinan la extensión espacial de la propagación y el curso


temporal de las respuestas subumbrales, e intervienen también en la velocidad de
propagación de las respuestas activas. La descripción del comportamiento eléctrico de
sistemas complejos como la membrana celular puede simplificarse usando modelos
128
eléctricos que imitan su comportamiento, estos modelos son llamados circuitos
equivalentes. El circuito equivalente de la membrana plasmática en reposo es una
aproximación a las membranas reales que permite operar con elementos físicamente
bien definidos.

5.1. Propiedades eléctricas de las membranas de las células excitables.

La membrana plasmática representa una barrera física entre el interior celular y su


medio circundante. Diversos mecanismos permiten la transferencia de cargas eléctricas,
principalmente iones, a través de la membrana, haciendo posible no sólo la
comunicación entre ambos espacios, sino la generación de determinadas señales
biológicas. En este capítulo se estudiarán las principales propiedades generales de
carácter biofísico y eléctrico que poseen las membranas celulares. Los fenómenos
eléctricos celulares pueden considerarse equivalentes a los observados en circuitos
eléctricos, ya que responden a las mismas leyes físicas; sin embargo, como la mayoría
de los fenómenos biológicos, la capacidad de regenerar y modular esos procesos físicos
requiere del consumo de energía química. Todas las células poseen una diferencia de
potencial entre el interior y el exterior celular que se denomina potencial de membrana y
que se debe a la existencia de gradientes de concentración iónica a ambos lados de la
membrana y a diferencias en la permeabilidad relativa de la membrana celular a las
distintas especies iónicas presentes. Además, las células eléctricamente excitables
(células musculares, células secretoras y neuronas) ejercen sus funciones generando
señales eléctricas en términos de cambios del potencial de membrana. Estas señales
eléctricas pueden ser: señales breves y de gran amplitud (potenciales de acción), cuya
función es transmitir la información rápidamente y a grandes distancias; respuestas más
lentas y de menor voltaje que controlan la excitabilidad y, por lo tanto, tienen una
importante función integradora; y señales de bajo voltaje (potenciales sinápticos),
resultantes de la acción sináptica. Estas modificaciones del potencial de membrana
resultan de cambios conformacionales de proteínas estructurales de la membrana
plasmática, llamados canales iónicos, que provocan variaciones de la permeabilidad
selectiva de la membrana a los iones. Las señales eléctricas en la célula se pueden
propagar de forma pasiva como resultado de las propiedades eléctricas de la membrana.
Este tipo de actividad eléctrica (que se denomina pasiva, por contraposición a las
respuestas activas que entrañan cambios de la permeabilidad de membrana) es de
extremada importancia funcional por cuanto determina la extensión espacial y el curso
temporal de las señales subumbrales.

5.2. Diferencia de potencial transmembrana entre el interior y el exterior celular.


Potencial de membrana en reposo en las células.

En todas las células en general, y en particular en las excitables, existe una diferencia de
potencial transmembrana más o menos constante llamada potencial de reposo ( V m)
siendo el interior de la célula negativo con respecto al exterior (Figura 5.1). Esta
diferencia de potencial se debe a la existencia de gradientes de concentración iónica a
ambos lados de la membrana y a diferencias de la permeabilidad relativa de la
membrana celular a las distintas especies iónicas presentes.

129
Las diferencias de permeabilidad que existen en reposo para distintas especies iónicas
se deben a canales iónicos con permeabilidad específica para una determinada especie
iónica.

Figura 5.1. Registro intracelular y potencial de membrana en reposo. A) Representación


esquemática de célula y registro de voltaje con una micropipeta antes (1) y después (2)
de empalar la célula. La micropipeta se conecta a un amplificador y se cierra el circuito
con un electrodo extracelular. B) Registro de voltaje en el tiempo antes (1, fuera) y luego
de la penetración transmembrana (2, dentro). El potencial de reposo ( V m) dentro de la
célula es negativo con respecto al exterior.

5.3. Bases iónicas del potencial de membrana en reposo

5.3.1. Permeabilidad iónica y potencial de equilibrio.

Consideremos un sistema con dos compartimientos (A y B) que contienen


concentraciones diferentes de un electrolito (por ejemplo, KCl) en solución acuosa,
estando el KCl más concentrado en el compartimiento A (Figura 5.2). En estas
condiciones, si ambos compartimientos están separados por una membrana
impermeable no existirá diferencia de potencial entre ellos. Sin embargo, si imaginamos
que la membrana es permeable exclusivamente a la especie iónica K +¿¿ y no a Cl−¿¿, los
iones K +¿¿ tenderán a moverse del compartimiento A al B, siguiendo su gradiente de
concentración, transportando así cargas positivas de un compartimiento a otro. Este
movimiento de cargas positivas hace desaparecer el equilibrio eléctrico (mismo número
de cargas positivas y negativas) que existía en cada compartimiento, dejando cargas
130
negativas libres en A, correspondientes a iones CL−¿¿ que no son contrarrestadas por las
cargas positivas de los iones K +¿¿ que se desplazaron a B, y positivas libres en B que
corresponden a los iones K +¿¿ que pasaron de A a B. Así pues, el paso de iones K +¿¿
genera un desequilibrio eléctrico que hace aparecer una diferencia de potencial entre
ambos compartimientos, siendo el compartimiento A negativo respecto al B. Esta
diferencia de potencial generada por el gradiente eléctrico crea una fuerza electromotriz
que se opone al movimiento de cargas positivas transportadas por el K +¿¿ desde A a B,
siguiendo su gradiente de concentración. Eventualmente, el sistema alcanza un estado
de equilibrio estable donde ambos gradientes de concentración y eléctricos se igualan,
de manera que deja de existir un flujo neto de K +¿¿ de un compartimiento a otro,
manteniéndose entonces constantes indefinidamente el potencial y las concentraciones
iniciales de KCl en A y B. El valor de la diferencia de potencial existente entre ambos
compartimientos cuando se alcanza el estado de equilibrio electroquímico está definido
formalmente por la ecuación de Nernst,

Figura 5.2. Pila de concentración.

+¿
RT K A
EK = ln +¿ ¿ ¿ Ecuación (5.1)
ZF K B

donde E es la diferencia de potencial estable en el equilibrio electroquímico o


simplemente potencial de equilibrio del ión móvilK +¿¿ , R es la constante general de los
gases (8,314 joule K −1 mol−1), T es la temperatura absoluta, z es la valencia del ión
móvil, F la constante de Faraday y [K +¿¿ ] A y [K las concentraciones del ión móvil en A y
B, respectivamente. Considerando que RT/F es aproximadamente 25 mV a 20-22 °C, y
ln([K ([K +¿¿ ] A /[K +¿¿ ] B), la Ecuación (5.1) puede reescribirse como:

131
K +¿
A
E K =58 mV . log 10 ¿ Ecuación (5.2)
K +¿
B ¿

Establece un cambio de 58 mV por cada unidad logarítmica de cambio de la


concentración del ión permeable K .
+¿¿

Puesto que en la Ecuación (5.1), z es la valencia del ión permeante, es fácilmente


demostrable que si el ión móvil fuese divalente la variación de voltaje por cada unidad
logarítmica de cambio de su concentración sería la mitad, o sea, 29 mV.

5.3.2. Generación del potencial de membrana en reposo.

Las concentraciones iónicas en el líquido extracelular y en el citoplasma de neuronas y


fibras musculares han sido determinadas en algunas especies. Se ha demostrado que
en el citoplasma hay una cantidad apreciable de proteínas cargadas negativamente que
no pueden atravesar la membrana plasmática. Además, hay concentraciones
asimétricas de diversos iones como K +¿¿ y Na+¿¿ a ambos lados de la membrana (Figura
5.3). En efecto, en tanto que el ión K +¿¿ se encuentra más concentrado en el interior
celular que en el espacio extracelular, la mayor concentración de Na+¿¿ existe en el
espacio extracelular.

Figura 5.3. Concentraciones iónicas (en mM) en el medio extracelular y en el citoplasma


en la rana (A) y en el calamar (B).

La semejanza de los valores de V r medidos experimentalmente y los valores de E K


estimados a partir de la ecuación de Nernst y de las concentraciones intra y extracelular
de K +¿¿ , sugiere que la membrana celular es exclusivamente permeable al K +¿¿ ,
separando un compartimiento negativo intracelular de uno positivo extracelular. Si así
fuera, V r cambiaría 58 mV por cada orden de magnitud de cambio, tanto de la
concentración extracelular de K como de [K]i. En otras palabras, V r se haría más
+¿¿ ¿

negativo, o menos negativo (es decir, la membrana se hiperpolarizaría o despolarizaría),


con la disminución y el aumento, respectivamente de [ K ]e. Lo inverso ocurriría con [
+¿¿

K +¿¿ ]i. Sin embargo, cuando se varía experimentalmente, en una célula muscular en una
neurona o en un axón (experimento hecho por Hodgkin y Keynes, en 1955, para

132
concentraciones extracelulares, y Baker, Hodgkin y Shaw, en 1962, para
concentraciones intracelulares de K +¿¿ en el axón gigante de calamar) la pendiente de 58
mV por unidad logarítmica de variación de ¿ se aproxima aceptablemente para valores
altos de esta concentración (> 10 mM), pero disminuye progresivamente la pendiente de
la relación para valores bajos de¿ alejándose de la predicción de la ecuación de Nernst
(Figura 5.4).

Por un lado, la buena correlación existente entre la predicción de Nernst y los valores
normales y despolarizados de V r cuando¿ se aumenta sobre los valores naturales,
indica que la permeabilidad al K +¿¿ es el elemento más importante en la generación del
potencial de membrana en reposo (Figura5.4).

Por otro lado, la desviación progresiva de lo predicho por la ecuación de Nernst para
valores hiperpolarizados de V r respecto a las concentraciones bajas de ¿ sugiere que
otro ión permeable interviene en la generación del potencial de membrana y que su
participación aumenta para bajas concentraciones de ¿. Hodgkin y Horowicz, en 1959,
demostraron la participación del Na+¿¿ en el V r variando la concentración extracelular de
Na+¿¿([ Na+¿¿ e ¿. Los efectos sobre V r de los cambios de Na+¿¿ e eran mucho menores que
los observados para modificaciones de [ K +¿¿ ]e lo que sugirió que la contribución del ión
Na+ al V r era pequeña. Por lo tanto la participación de la permeabilidad selectiva de la
membrana al K +¿¿ es primordial en la generación de V r a la que se agrega una pequeña
participación de la permeabilidad al Na+.

Los experimentos anteriormente comentados indican que en condiciones de reposo, el


axón gigante de calamar (como la mayoría de las células excitables) es un sistema en el
que hay por lo menos dos especies iónicas permeables, Na+¿¿ y K +¿¿ , que están
asimétricamente distribuidas a los lados de la membrana plasmática, y que median una
diferencia de potencial más o menos constante, el V r .

En un sistema como la membrana plasmática en el que existe más de una especie


iónica móvil, V r es constante sólo cuando la corriente iónica neta es cero. Lo mismo
ocurriría para un sistema con más iones permeables. Si suponemos que solamente el
K+ y el Na+ son móviles, la corriente será cero cuando la salida de Na+ iguale a la
entrada de K+. Además, V r dependerá de las concentraciones relativas de K+ y Na+ a
ambos lados de la membrana (de los gradientes de concentración) y de la permeabilidad
relativa Na, o de cualquier otro ión móvil existente como por ejemplo el CL−¿¿. En esas
condiciones V r se deriva de la relación que describe las dependencias de V r de las
relaciones de concentración de Na+¿¿, K y CL−¿¿ a ambos lados de la membrana y de los
coeficientes de permeabilidad de los iones móviles ( P Na, P K y PCl) o ecuación de
Goldman -Hodgkin-Katz , también llamada ecuación del campo constante.

RT
ln P K K e+ P Na Nae + PCl Cl i
zF Ecuación (5.3)
V m=
P K K i+ P Na Nai+ PCl Cl e
133
O sustituyendo como en las ecuaciones [1] y [2],

58 mV ln P K K e+ P Na Na e+ PCl Cl i
V m= Ecuación (5.4)
PK K i+ PNa Na i+ PCl Cl e

donde las unidades del coeficiente de permeabilidad P son cm/s y éste se define como

μβ RT
P=
aF

siendo μ la movilidad del ión en la membrana, β el coeficiente de partición entre la


membrana y la solución acuosa y a el ancho de la membrana, asumiendo una relación:

PNa
= 0.01
PK

Hodgkin y Horowicz encontraron un buen ajuste de la relación V r frente a [K +¿¿ ]e a los


valores experimentales (Figura 5.4) determinados en el axón gigante, usando la
Ecuación (5.4). De esta manera se concluyó que los iones Na+¿¿ juegan un papel en el
mantenimiento de V r y que el Cl−¿¿ no contribuye al V r .

Se puede resumir lo anterior si se supone que existen en la membrana tres pilas de


concentración, una donde el K +¿¿ es el ión móvil, otra donde lo es el Na+¿¿, y una pila
donde el ión permeable es el Cl−¿¿. Las pilas de Na+¿¿ y K +¿¿ tienen polaridades opuestas
y potenciales de equilibrio fijos ( E K y E Na) determinados por sus respectivos gradientes
de concentración, siendo la pila de K +¿¿ negativa en el citoplasma y la de Na+¿¿ negativa
en el compartimiento extracelular. La pila de Cl−¿¿ no interviene en la generación de V r y
su potencial de equilibrio es igual al potencial de membrana ( ECl = V r ). Las pilas
representan los canales pasivos que están abiertos de modo continuo e independiente
del V m que son permeables exclusivamente a las especies iónicas K +¿¿ , Na+¿¿ y Cl−¿¿, y
que tienen los respectivos potenciales de equilibrio E K , E Na y ECl (Figura 5.9B). Las
respuestas activas son generadas por otro tipo de canales iónicos que son sensibles a la
diferencia de potencial transmembrana, activándose a valores específicos del V m, por lo
que se denominan canales voltaje dependientes.

134
Figura 5.4. Dependencia del potencial de membrana en reposo ( V r ) de la concentración
extracelular de K +¿¿ [K +¿¿ ]e. La recta corresponde a los valores calculados con la
ecuación de Nernst, considerando una concentración intracelular de potasio de 140 mM.
La línea continua que ajusta a los valores experimentales se obtuvo de la ecuación de
Goldman-Hodgkin-Katz, Ecuación (5.4), considerando una relación de permeabilidad
Na/K de 0,01.

Si se examina la desviación gradual de los valores experimentales de V r de lo predicho


por la ecuación (5.2) de Nernst para cambios de [ K ]e (Figura 5.4), se observa que los
+¿¿

valores de V r se ajustan aceptablemente con el formalismo de Goldman-Hodgkin-Katz


de la Ecuación (5.4). Analizando la Ecuación (5.4), se comprueba que el término de K +¿¿
domina el numerador, lo que explica por qué para valores altos de [ K +¿¿ ]e V r se
aproxima al valor de E K y; por lo tanto, al límite de la pendiente de 58 mV. En otros
términos, la pila de K +¿¿ tiene mucha más influencia que la de Na+¿¿ para valores
normales y altos de [K +¿¿ ]e que corresponden a valores naturales y despolarizados del
V r . En cambio, para valores bajos de [ K +¿¿ ]e el numerador del término de K +¿¿ tendrá
cada vez menos influencia (por ejemplo, aumentando [ K ]e por 10, no multiplicará por
+¿¿

10 el numerador, como ocurriría con la Ecuación (5.2) de Nernst, sino menos). En esas
condiciones, la influencia de la pila de Na irá aumentando para valores bajos de [ K
+¿¿ +¿¿

]e (Figura 5.4). Es importante enfatizar que las ecuaciones (5.3) y (5.4) no son válidas
para los iones divalentes.

135
Figura 5.5. Efecto de las variaciones de concentración extracelular de cloro. Se
disminuye la concentración de Cl−¿¿ de 120 a 30 mM, y se produce una despolarización
transitoria, y cuando se vuelve a la concentración inicial ocurre una hiperpolarización
transitoria.

5.3.3. Distribución pasiva de los iones de cloro.

y la relación PCl/ P K = 0.1,


−¿¿
La membrana plasmática es permeable a Cl
aproximadamente, para el axón gigante de calamar. Sin embargo, el Cl−¿¿ no interviene
en la generación de V r dado que en la mayoría de las neuronas y en otras células
excitables se encuentra en equilibrio. O sea, que el potencial de equilibrio del Cl−¿¿ ( ECl )
es el del V r ( ECl = V r ). Esto se debe a que en la mayoría de las células no hay una
bomba de Cl−¿¿ que establezca gradientes de este ión a ambos lados de la membrana.
Así, Hodgkin y Horowicz vieron que al provocar experimentalmente cambios mantenidos
de [Cl−¿¿]e el V r se modificaba transitoriamente volviendo gradualmente al valor inicial
en pocos minutos (Figura 5.5), La vuelta gradual al V r se hace por redistribución iónica
siguiendo las leyes del equilibrio de Donan que restablece una nueva igualdad V r = ECl .

5.3.4. Bomba de Sodio – Potasio.

La bomba de sodio/potasio (Na/K) mantiene el gradiente de concentración iónica y


contribuye al potencial de membrana en reposo. Las diferencias de concentración entre
el medio intracelular y el espacio extracelular de las especies iónicas K +¿¿ yNa+¿¿ son la
llave de la generación del V r . Los gradientes de concentración de estos iones se
mantienen por un proceso metabólico de transporte que consume energía en forma de
ATP y que es realizado por la bomba Na/K, que traslada Na+¿¿ al exterior celular y K +¿¿ al
interior celular, manteniendo alta la concentración intracelular de K +¿¿ ([K +¿¿ ]i).
136
Figura 5.6. Efecto de la bomba Na/K. A-B, respuestas hiperpolarizantes producidas por
la inyección intracelular de Na+¿¿ en una neurona de caracol. A) Efecto de la aplicación
de ouabaína. (La ouabaína, también conocida como estrofantin-G, Acocanterina, Octahidrato
de ouabaína y kombetina, es un poderoso glucósido cardíaco de acción rápidaque se extrae del
Strophanthus gratus y de la corteza de Acokanthera ouabaio. Extractos de ouabaína han sido
utilizados por las tribus somalíes para envenenar las puntas de flecha. Existen reportes de que una
sola dosis lanzada con flecha puede derribar y matar a un hipopótamo debido a un fallo
cardiorrespiratorio inducido por la ouabaína. El nombre deriva del somalí waabaayo, que significa
+¿¿
"flecha con veneno"). B) Acción de una solución extracelular sin K (Thomas, 1969).

Se ha observado que en condiciones de reposo la ouabaína, un bloqueador de la bomba


de Na/K, despolariza algo (aproximadamente 5 mV) la membrana (Figura 5.6A), lo que
indica que la bomba contribuye eléctricamente a V r . Esto se debe a que la bomba saca
más Na+¿¿ que el K +¿¿ que hace ingresar al interior celular, existiendo por lo tanto una
corriente neta de cargas positivas que atraviesa la membrana de dentro afuera,
hiperpolarizando la membrana. Además, la inyección de Na+¿¿ intracelular (lo que
aumenta la actividad de la bomba Na/K) produce una hiperpolarización transitoria, efecto
que es impedido por bloqueadores de la bomba Na/K (Figura 5.6), como ouabaína. Sin
embargo, la inyección intracelular de K +¿¿ no produce hiperpolarización en condiciones
control, indicando que el fenómeno se debe al transporte activo hacia fuera de Na+¿¿ por
la bomba (Figura 5.6B). Es también interesante destacar que al intoxicarse la célula con
ouabaína, inicialmente se produce una pequeña despolarización por el bloqueo de la
bomba, pero luego el potencial puede mantenerse horas en condiciones de reposo,
aunque eventualmente tenderá a cero cuando las concentraciones intracelulares y
extracelulares de K+ y Na+ se igualen. Las concentraciones intracelulares-extracelulares
137
de Na+¿¿ y K +¿¿ tienden a igualarse, dado que el K +¿¿ tiende a salir por su gradiente de
concentración en contra de un pequeño gradiente eléctrico, mientras que el Na+¿¿ tiende
a entrar de acuerdo con sus gradientes de concentración y eléctrico.

5.3.5. Propiedades eléctricas pasivas de la membrana celular que determinan la


propagación espacial y temporal de las señales subumbrales.

El comportamiento pasivo de las señales eléctricas en la membrana es de gran


trascendencia funcional en las células excitables, pues establece el grado de
propagación espacial y el curso temporal de las respuestas subumbrales.

Las propiedades pasivas de las células excitables se pueden analizar tal como hicieron
inyectando corriente por la membrana celular y registrando las variaciones de V m para
valores subumbrales. Se introducen dos electrodos dentro de la célula, uno para
registrar el V m (Figura 5.7) y el otro para inyectar corriente ( I m). En fibras grandes como
el axón gigante de calamar pueden usarse electrodos metálicos, pero células más
pequeñas se penetran con pipetas de vidrio de punta submicroscópica (<1 μm) rellenas
de un líquido conductor, por ejemplo, KCl (Figura 5.7). Unos de los electrodos
intracelulares se conectan el uno a un amplificador y el otro a un generador de pulsos de
corriente, cerrándose los circuitos de registro e inyección intracelular por medio de
electrodos extracelulares colocados en el baño que contiene la célula o axón (Figura
5.7). Cuando se estimula la célula con pulsos de corriente que atraviesan la membrana
circulando entre los dos electrodos conectados al generador de pulsos, la corriente
induce a variaciones del potencial de membrana que dependen de estos elementos:

 Intensidad.
 Dirección de la corriente.
 Propiedades pasivas de la membrana.

La respuesta de la membrana a pulsos de corriente tiene un curso temporal exponencial


que se caracteriza por una variación del potencial de membrana desde el potencial de
reposo hasta estabilizarse (si el pulso es suficientemente largo) en un valor estacionario
que llamaremos V K . Al terminar el pulso, el potencial de membrana V m regresa
exponencialmente para estabilizarse nuevamente en el potencial de reposo (Figura
5.7B).
La variación de V m depende además de la dirección de la circulación de la corriente
inyectada por la membrana, o sea de la polaridad de los electrodos de estimulación extra
e intracelular. Cuando se conecta el electrodo intracelular al polo negativo del generador
de corriente y el extracelular al polo positivo, la corriente circulará hacia dentro de la
célula atravesando la membrana desde el exterior al interior celular (de acuerdo a la
convenciónaceptada) lo que genera una hiperpolarización (Figura 5.8). Cuando el
electrodo intracelular se conecta al polo positivo y el extracelular al negativo, la corriente
circula hacia fuera y la célula se despolariza (Figura 5.8). La despolarización podrá
superar el umbral y alcanzar el nivel de disparo con lo que se genera un potencial de
acción (Figura 5.8).

138
La magnitud de V K para respuestas subumbrales aumenta linealmente con la intensidad
del pulso de corriente. Si se representa V K en función de la intensidad de la corriente
inyectada ( I m), lo que se denomina relación voltaje-corriente, los valores experimentales
se ajustan bien a una función lineal (Figura 5.8) que cruza el eje de las ordenadas en el
valor de V r . La relación lineal entre V K e I m indica que la membrana celular se comporta
como una resistencia eléctrica (se dice que tiene un comportamiento resistivo u óhmico),
ya que obedece a la ley de Ohm. Esta ley establece que si se pasa corriente por una
resistencia se creará una diferencia de potencial a ambos lados de la resistencia que
variará linealmente con la intensidad de la corriente. Así, para la membrana, la relación
tendría la siguiente forma: Vm = Vr + (Im × Rm) Ecuación (5.5)

Figura 5.7. Registro intracelular y respuesta a pulsos de corriente despolarizante.


En la Figura 5.7, A) Esquema que corresponde al preparado experimental representando
una célula empalada con dos micropipetas. Una conectada a un amplificador para el
registro de V m (1) y otra para la inyección de corriente transmembrana I m (3). Los
correspondientes circuitos de registro y estimulación se cierran por electrodos
extracelulares en el baño (2-4). El electrodo intracelular de estimulación se ha
representado positivo con respecto al extracelular, por lo que la corriente circulará hacia
afuera por la membrana. B) esquema que corresponde al efecto de los pulsos
despolarizantes. La membrana retrasa el efecto de la corriente y hay variaciones
139
exponenciales del potencial de membrana al inicio y fin del pulso de corriente.
Eventualmente se alcanza un valor de voltaje estacionario ( V K ) durante el pulso
despolarizante.

Figura 5.8. Efecto de la aplicación de pulsos de corriente transmembrana.

En la Figura 5.8 se esquematiza: El esquema A) muestra las respuestas a pulsos


negativos y positivos de intensidad creciente. Para pulsos positivos se llega al nivel de
disparo y se generan potenciales de acción. Las líneas gruesas son ajustes a una única
exponencial. En el esquema B) se muestra la curva V/I con valores experimentales de A.
V m se mide en la parte estacionaria al final de la respuesta a los pulsos. La función lineal
(línea gruesa) que ajusta a los valores experimentales corresponde a la ley de Ohm [Vm
= (Im × Rm) – Vr]. Nótese que la respuesta es no lineal para despolarizaciones
supraumbrales (> –40 mV). Este caso corresponde a una célula cromafín de bovino.

140
De lo anterior se deduce que puede calcularse la resistencia de membrana (Rm)
aplicando la ley de Ohm de la siguiente forma: Rm = VK / Im. Por lo tanto, la pendiente
de la relación voltaje-corriente (Figura 5.8) define el valor de Rm. Obviamente, cuanto
mayor sea Rm, mayor será la pendiente. El comportamiento óhmico de la membrana es
debido a la existencia de canales iónicos pasivos que se comportan como un conductor
iónico que tiene una resistencia eléctrica finita.

5.3.6. Circuito eléctrico equivalente de la membrana celular.

El análisis del comportamiento eléctrico de la membrana celular en reposo puede


simplificarse usando un modelo eléctrico pasivo llamado circuito eléctrico equivalente. El
circuito equivalente de la membrana permite operar con elementos físicamente bien
definidos cuyo comportamiento eléctrico tiene una representación formal. El equivalente
eléctrico de la membrana es una red de conexiones que consta de elementos, que
representan puntos o lugares (loci) a lo largo de la membrana, que reproducen los
canales iónicos pasivos, esto es, que su apertura no depende de voltaje, sino que están
siempre abiertos, son los denominados canales iónicos de fuga. Los loci están
conectados entre sí por los líquidos intracelulares y extracelulares, que son conductores
eléctricos que tienen una resistencia finita (Figura 5.9A).

Figura 5.9A. Equivalente eléctrico de la membrana.

El potencial de reposo Vr se representa en el circuito equivalente por una pila eléctrica


cuya fuerza electromotriz y polaridad corresponden a los valores medidos
experimentalmente en las células (por ejemplo, −70 mV), y que llamaremos fuerza
electromotriz de la membrana (Em). Ya vimos que la membrana se comporta como una
resistencia eléctrica. Esta resistencia de membrana Rm se representa en el equivalente
conectada en serie con la pila, en cada locus del equivalente, simulando los canales
pasivos de Na+, K+ y Cl− (Figura 5.9). A su vez el equivalente de cada locus se
representa con las correspondientes pilas EK, ENa y ECl, que vienen determinados por
el potencial de equilibrio de Nernst para cada ión, y las correspondientes resistencias
RK, RNa y RCl (Figura 5.9B).
141
Figura 5.9B. Equivalente eléctrico de un locus de membrana.

La resistencia del líquido extracelular se llama resistencia externa (Re), y se representa


en el equivalente eléctrico conectando un locus con los adyacentes por fuera de la
membrana. Lo mismo ocurre con el medio intracelular, que se representa en el
equivalente eléctrico (Figura 5.9A) por una resistencia interna (Ri). La resistencia
eléctrica de un elemento depende por un lado de su constante de resistividad ρ, que es
una propiedad intrínseca del material que constituye la resistencia, y, por otro lado, de la
forma del elemento. Si consideramos un elemento cilíndrico, la resistencia es
inversamente proporcional a su diámetro (d) y directamente proporcional a su longitud (l)
(R = ρ × l/d). Si por aproximación asociamos un proceso celular (por ejemplo, axones y
dendritas) a un cilindro, de lo anterior se deduce que cuanto más delgado y largo sea un
proceso celular mayor será su resistencia interna.

Vimos que el inicio y terminación instantánea del pulso de corriente transmembrana


provoca variaciones exponenciales de Vm (Figuras 5.7 y 5.8). Este comportamiento se
debe a que la membrana se comporta como un condensador eléctrico (muestra un
comportamiento capacitivo). Un condensador está constituido por dos superficies
conductoras separadas por un aislante o dieléctrico. En la célula, los conductores son
los medios intra y extracelular, representados por su resistencia Ri y Re,
respectivamente, y el dieléctrico es la parte lipídica sin canales iónicos de la membrana
celular. Por lo tanto, en el circuito equivalente debe también representarse un
condensador de membrana (Cm) que modele el comportamiento observado.

142
Figura 5.10A. Efecto de la aplicación de pulsos de corriente en el equivalente eléctrico
de membrana. Equivalente eléctrico y esquema de la aplicación del pulso de corriente y
del registro de voltaje.

El comportamiento capacitivo se modela conectando el condensador Cm en paralelo con


la resistencia de membrana Rm (Figuras 5.9 y 5.10A). Cuando se hace pasar un pulso
de corriente por ese circuito (haciendo por ejemplo circular la corriente hacia afuera
atravesando la membrana) el condensador se carga de acuerdo a la ecuación:

q = C(Vr − Vm) Ecuación (5.6)

Ese condensador admite cargas negativas y positivas a ambos lados del dieléctrico
(Figura 5.10B) durante el pulso y donde (Vr − Vm) es el cambio de potencial, q es la
carga en culombios y C es la capacidad del condensador en faradios (F). En el instante
en que comienza a pasar la corriente, el condensador está descargado, por lo que toda
la corriente aplicada pasa por él, a esta rama del circuito se la llama capacitiva, y a la
corriente que pasa por ella IC y no hay paso de corriente por Rm, a esta rama del
circuito se la llama resistiva, y a la corriente que pasa por ella, IR, ya que la resistencia
se opone al paso de corriente (Figura 5.10B). Como Vm depende de la corriente que
pasa por Rm y de acuerdo con la ley de Ohm generalizada, Vm = Vr + (Rm × IR) y como
en ese instante inicial IR = 0, entonces resulta que Vm = Vr. En el instante que sigue, el
condensador ya ha admitido carga por lo que hay cierta oposición al paso de corriente
por la rama capacitiva y algo de corriente pasa por la rama resistiva que generará un
cambio de Vm de acuerdo a la ley de Ohm. Cuando el condensador se ha cargado
143
totalmente toda la corriente Im pasa por Rm (Im = IR) y se habrá llegado a VK (Figura
5.10B), Es importante notar que la corriente que pasa por la rama capacitiva sumada a
la que pasa por la rama resistiva es en todo momento igual a la corriente total
transmembrana Im (Im = IC + IR). Cuando el pulso termina, el condensador se descarga,
y aparece una corriente capacitiva igual y contraria a la que cargó el condensador al
comienzo del pulso. Esta corriente, pasando por la rama resistiva hace que Vm decaiga
exponencialmente hasta estabilizarse en el Vr.

Figura 5.10B. Efecto de la aplicación de pulsos de corriente en el equivalente eléctrico


de membrana. Representación en el tiempo de: Vm, voltaje transmembrana; Im,
corriente transmembrana; IR, corriente de la rama resistiva; IC, corriente de la rama
capacitiva.

CAPÍTULO 6

ELECTROCARDIOGRAFÍA

Introducción

144
La electrocardiografía consiste en el registro gráfico de la actividad eléctrica que se
genera en el corazón. Su análisis proporciona importante información que debe
complementar siempre a una anamnesis y exploración física detalladas. Aporta datos
sobre función cardiaca, trastornos del ritmo y de la conducción, hipertrofia de cavidades
y ayuda al diagnóstico de cardiopatías congénitas o adquiridas de tipo infeccioso,
inflamatorio, metabólico o isquémico. Su normalidad no siempre descarta afectación
cardiaca.

El electrocardiograma es un registro gráfico de los potenciales eléctricos generados en


el corazón durante el ciclo cardiaco. El electrocardiograma suele designarse por las
letras (ECG o EKG), y entrega una información muy útil acerca del funcionamiento del
corazón. Esta representación consiste en una línea base y varias deflexiones y ondas.
Colocando electrodos en diversas posiciones del cuerpo y conectando dichos electrodos
a un aparato electrocardiográfico, se pueden registrar las variaciones del potencial
eléctrico cardiaco. La disposición específica que guardan los electrodos en el cuerpo
humano recibe el nombre de derivación. Las derivaciones más importantes reciben el
nombre de Bipolares, Aumentadas y Precordiales Unipolares. En este capítulo se tratan
sólo las derivaciones bipolares.

6.1. El corazón humano.

El corazón es el elemento fundamental del aparato circulatorio en los animales de


organización relativamente compleja. En el hombre, el corazón es una víscera cónica,
con la punta dirigida hacia abajo y a la izquierda, situada en la cavidad torácica, entre
ambos pulmones. El corazón humano está constituido por el miocardio (pared de fibras
musculares), unidas por tejido conjuntivo y revestido exterior e interiormente por una
membrana serosa, llamada pericardio y encorado, respectivamente.

El corazón se contrae (sístole) 70-80 veces por minuto, mediante el acotamiento de las
fibras musculares; entre las contracciones se establecen periodos de relajación
(diástole) en los que la sangre penetra en las cavidades. Estas contracciones están
provocadas por un sistema nervioso autónomo, regulado por el sistema vegetativo bajo
el gobierno de un núcleo situado en el bulbo (centro cardiaco) y por influencias
hormonales (adrenalina).

Funcionalmente, consta de dos partes: el corazón derecho (formado por la aurícula y


ventrículo derechos, separados por la válvula tricúspide) recibe la sangre de todo el
organismo por las venas cavas que desembocan en la aurícula, pasando la sangre al
ventrículo al abrirse la válvula. Desde allí, es impulsada a los pulmones donde es
oxigenada, convirtiéndose en sangre arterial que, por las venas pulmonares, ingresa en
el corazón izquierdo (aurícula y ventrículo izquierdos, separados por la válvula Mitral)
donde sigue un recorrido análogo; el ventrículo izquierdo la impulsa luego a la arteria
aorta, que la distribuye a todo el cuerpo. El paso de la sangre de ambos ventrículos a las
respectivas arterias está regulado por las válvulas sigmoideas. La contracción de ambos

145
ventrículos se efectúa simultáneamente; las aurículas también se contraen, lo que hacen
antes que los ventrículos, ayudando con ello a pasar la sangre hacia éstos.

6.2. Anatomía de corazón.

El corazón está situado en la cavidad torácica y ocupa la región intermedia entre las dos
regiones pleuro-pulmonares.

Su forma es la de una pirámide triangular. El eje mayor de esta pirámide, es decir, la


dirección del corazón varía según la forma del tórax. Cuando el tórax tiene unas
dimensiones medias, tanto el corazón como su eje mayor se aproximan a la horizontal y
se dirigen oblicuamente hacia adelante, hacia la izquierda y ligeramente hacia abajo. A
causa de esto, la base del corazón normal, que está en la parte posterior, mira a la vez
hacia atrás y a la derecha; el vértice está inclinado hacia adelante y a la izquierda.

La consistencia del corazón es dura; su coloración rojiza. Su peso aumenta


gradualmente con la edad. Es un poco mayor en el hombre que en la mujer; alcanza en
la edad adulta, por término medio, 270 gramos en el hombre y 260 gramos en la mujer.

En las figuras 6.1.a y 6.1.b se puede apreciar la forma y disposición del corazón.

146
Figura 6.1.a. Vista anterior del corazón y de los grandes vasos.

147
Figura 6.1.b. Vista posterior del corazón y de los grandes vasos.

6.3. Configuración exterior del corazón.

El corazón presenta a causa de su forma, tres caras, tres bordes, una base y un vértice.
El corazón está formado de cuatro partes: las aurículas derecha e izquierda y los
ventrículos derecho e izquierdo. La aurícula derecha está situada detrás del ventrículo
derecho; la aurícula izquierda está detrás del ventrículo izquierdo.

Los límites de las aurículas y de los ventrículos están indicados en la superficie exterior
del corazón por los surcos interventricular, interauricular y aurículo-ventricular.

Caras. - Las tres caras son: cara anterior o esternocostal, otra inferior o diafragmática y
otra lateral izquierda.

Bordes. - Las tres caras del corazón están separadas por tres bordes, uno derecho y dos
izquierdos. El borde derecho, situado entre la cara anterior y la cara inferior, es agudo.
Los bordes izquierdos son redondeados y separan la cara lateral izquierda de las caras
anterior e inferior.

148
Base. - La base del corazón está constituida únicamente por las aurículas. Está dividida
en dos segmentos, derecho e izquierdo, por el surco interauricular.

Vértice. - El vértice o punta del corazón está dividido en dos partes por una ligera
depresión que une el surco interventricular anterior al surco interventricular posterior; la
derecha, pequeña, corresponde al ventrículo derecho, la izquierda, más voluminosa,
pertenece al ventrículo izquierdo y ocupa el vértice del corazón.

Fig. 6.2. Corazón visto desde abajo y de izquierda a derecha.

6.4. Configuración interna del corazón.


149
6.4.1. División del corazón.

Las cavidades del corazón se dividen en cavidades derechas y cavidades izquierdas.


Las cavidades derechas, es decir, la aurícula y el ventrículo derechos, están separados
de las cavidades izquierdas, aurícula y ventrículo izquierdos, por los tabiques
interauricular e interventricular, de tal manera que el corazón parece estar constituido
por dos mitades independientes, una derecha y otra izquierda. (Figura 6.3).

Figura 6.3. Esquema que muestra la base del corazón.

Tabique interventricular.

150
Se extiende desde la pared anterior hasta la pared inferior del corazón y se une a estas
paredes enfrente de los surcos interventriculares anterior e inferior.

Tabique interauricular.

Es una membrana delgada que separa las dos aurículas.

6.4.2. Las aurículas.

Están situadas detrás de los ventrículos, a los lados del tabique interauricular. Son más
pequeñas que los ventrículos; sus paredes son mucho más delgadas; son lisas en la
mayor parte de su extensión.

6.4.3. Los ventrículos.

Son dos cavidades piramidales o conoideas, situadas delante de las aurículas, a los
lados del tabique interventricular. El vértice de los ventrículos corresponde a la punta del
corazón. La base, dirigida hacia atrás, está ocupada enteramente por dos orificios
circulares a saber: uno aurículo-ventricular, que pone en comunicación la aurícula con el
ventrículo, y otro arterial, más pequeño que el precedente, que hace comunicar el
ventrículo derecho con la arteria pulmonar y el ventrículo izquierdo con la aorta.

6.4.3.1. Conformación del ventrículo izquierdo.

Tiene la forma de un cono ligeramente aplanado transversalmente, lo que permite


reconocer en él dos paredes, un vértice y una base.

Paredes. - Las dos paredes, una izquierda o externa y otra derecha o interna, son muy
cóncavas; su espesor mucho mayor que el de las paredes del ventrículo derecho, es,
por término medio, de un centímetro.

Vértice. - El vértice del ventrículo izquierdo es redondeado y su superficie está cubierta


de una red de columnas carnosas.

Base. - La base está ocupada enteramente por el orificio aurículo-ventricular izquierdo,


por el orificio aórtico y por las válvulas anejas a estos orificios.

6.5. Sistema Cardiovascular.

El corazón se puede considerar como una bomba de dos etapas, dispuestas en paralelo,
pero la sangre circulando en serie. La mitad derecha del corazón, conocida como
corazón derecho, es la bomba que suministra sangre venosa a los pulmones para que
ésta se oxigene, mientras que el lado izquierdo (corazón izquierdo) puede considerarse
como una bomba de presión que suministra la sangre arterial al resto del cuerpo. Las
vías por donde circula el flujo sanguíneo a través de los pulmones se denominan

151
circulación pulmonar, y el sistema circulatorio que provee de oxígeno y alimentos a las
células del organismo se denomina circulación mayor.

Desde el punto de vista de la ingeniería, la circulación mayor es un circuito con una


resistencia grande y un elevado gradiente de presión entre las arterias y las venas. De
este modo la bomba constituida por el corazón izquierdo se considera una bomba de
presión. Sin embargo, en la circulación pulmonar, la diferencia de presión entre venas y
arterias es pequeña y la resistencia equivalente también, y por ello, el corazón derecho
puede considerarse como una bomba de volumen. El corazón izquierdo es más grande y
de constitución muscular más robusta que el derecho debido a que las presiones
necesarias para la circulación son mayores. El volumen de sangre por unidad de tiempo
distribuido por las dos partes del corazón es el mismo cuando se mide durante un
intervalo de tiempo suficientemente grande. El corazón izquierdo debe proporcionar una
presión suficiente para que la sangre circule por todas las partes del cuerpo.

La acción de bombeo se lleva a cabo mediante la contracción de los músculos que


circundan cada cavidad del corazón. Estos músculos reciben su propia irradiación
sanguínea a través de las arterias coronarias que rodean al corazón formando una
especie de corona. El sistema de arterias coronarias es una rama particular de la
circulación mayor.

La analogía del sistema circulatorio como una bomba o un sistema hidráulico no puede
considerarse en una forma demasiado estricta. Las arterias y venas no son rígidas sino
flexibles, son capaces de favorecer la conducción y controlarla mediante su propia
acción muscular y su sistema de válvulas y almacenamiento. Por otro lado, la sangre no
es un fluido newtoniano puro, sino más bien, posee propiedades que no cumplen la
mecánica de los fluidos. Además, la sangre necesita la ayuda de los pulmones para
oxigenarse y se influye mutuamente en el sistema linfático. También hay que tener en
cuenta que muchos productos químicos y hormonas afectan al funcionamiento del
sistema. De este modo una simplificación excesiva podría conducir a errores.

En la Figura 6.4 se observa el sistema fisiológico del corazón y la circulación. En la


Figura 6.5 se aprecia el equivalente en ingeniería mediante un diagrama de tuberías.
Mediante estas figuras, el sistema circulatorio puede describirse de la forma siguiente: la
sangre entra al corazón en el lado derecho a través de las dos venas principales (la cava
superior que lleva la sangre de las extremidades superiores y la cava inferior que lleva la
sangre de los órganos del cuerpo y de las extremidades inferiores. La sangre entra
llenando la aurícula derecha. Además de las dos venas anteriores también entra la
sangre del seno coronario, que contiene la sangre que circula por el propio corazón a
través del anillo coronario.

La sangre de la aurícula derecha pasa a través de la válvula tricúspide al ventrículo


derecho que actúa como bomba de volumen y bombea la sangre al sistema circulatorio
pulmonar. En los alveolos de los pulmones la sangre se oxigena y vuelve al corazón a
través de la vena pulmonar. La sangre entra a la aurícula izquierda por la vena pulmonar
y pasa al ventrículo a través de la válvula mitral. Posteriormente se abre la válvula

152
aortica y la sangre sale por la arteria aorta al resto del cuerpo. Las Figuras 6.6 y 6.7
muestras las principales arterias y venas del organismo humano.

Figura 6.4. El sistema cardiovascular

153
Figura 6.5. Circulación cardiovascular.

154
Figura 6.6. Principales arterias del organismo.

155
Figura 6.7. Principales venas del organismo.

6.6. Función de bomba del corazón: Ciclo cardíaco.


156
El ciclo cardíaco es la sucesión de acontecimientos auriculares y ventriculares que se
repiten en cada contracción. Es un fenómeno complejo y de extraordinaria rapidez. Se
puede dividir el ciclo cardíaco en sístole y diástole. A su vez estos períodos se dividen
en diversas fases.

Sístole auricular.

El primer acontecimiento del ciclo cardíaco es la descarga del nodo sinusal, que
despolariza en primer lugar ambas aurículas, dando lugar a la onda P del
electrocardiograma. Tras la activación eléctrica la aurícula se contrae, aumenta la
presión intraauricular, y como en este momento aurículas y ventrículos están en
comunicación porque las válvulas aurículo ventriculares están abiertas, se envía una
cantidad adicional a la sangre en el ventrículo, induciendo una pequeña elevación del
volumen ventricular y un aumento transitorio de la presión auricular y ventricular.
(sigue gráfica...)

157
Figura 6.8. Curvas de presión y volumen del corazón durante el ciclo cardiaco.

158
Figura 6.9. Sonidos cardiacos.

Como desde el punto de vista funcional la contracción auricular aumenta el llenado


ventricular, esta fase se incluye en la diástole y se denomina fase de llenado diastólico
ventricular activo o de llenado auricular.

La cantidad de sangre albergada en el ventrículo, tras finalizar la contracción auricular e


inmediatamente ante de la sístole ventricular, se denomina volumen diastólico final, que
constituye el punto de referencia para calcular la fracción de eyección y que en
condiciones normales es de unos 130 ml.
El 85% del llenado ventricular tiene lugar antes de la contracción auricular y, por tanto,
en condiciones normales, el llenado auricular representa el 5 a 15%. Sin embargo,
159
cuando disminuye la distensibilidad ventricular, tal como sucede en la miocardiopatía
hipertrófica, la aportación auricular puede representar hasta el 33% del volumen
diastólico final, porque la contracción auricular es un mecanismo de reserva de la
función cardíaca.

La sístole auricular dura unos 60 ms, precediendo en unos 20 ms la sístole auricular


derecha a la izquierda.

Tras la contracción auricular, la presión desciende tanto en la aurícula como en el


ventrículo, pero lo hacen antes en aquellas que, en éste, y se invierte la polaridad del
gradiente de presión a través de la válvula, superando la presión ventricular a la
auricular hasta que se alcanzaba un punto de equilibrio (punto z).

Tras la activación completa de la aurícula, la onda de despolarización se detiene


momentáneamente en el nodo auriculoventricular, sigue luego con gran rapidez por el
haz de His, sus tres ramas y las fibras de Purkinje, y alcanza en primer lugar tres zonas
de activación miocárdica: la porción media de la masa septal izquierda, un área alta
septal y paraseptal anterior y un área paraseptal posterior, en el tercio inferior del
tabique; a continuación despolariza toda la masa ventricular izquierda y da origen al
complejo QRS. Tras el intervalo correspondiente al acoplamiento excitación-contracción,
tiene lugar la contracción ventricular izquierda y derecha o período de sístole ventricular.

El corazón izquierdo es una bomba de presión que trabaja contra altas resistencias
periféricas, mientras que le corazón derecho es una bomba de volumen que vacía su
contenido contra las bajas resistencias. Si el sistema circulatorio se divide en un sistema
de alta presión, representado por el ventrículo izquierdo, arterias elásticas y arteriolas, y
un sistema de baja presión, que se extiende desde los capilares a la aurícula izquierda,
el ventrículo izquierdo tiene la cualidad única de pertenecer a ambos sistemas, en
diástole al de baja presión y en sístole al da alta presión, mientras que en condiciones
normales el ventrículo derecho permanece todo el tiempo en el sistema de baja presión.

La primera fase de la sístole ventricular es la de contracción isovolumétrica. Esta fase


comienza con la primera elevación detectable de la curva de presión intraventricular
después del punto z, y termina con el comienzo de la eyección. Durante esta fase, el
ventrículo se contrae, comprime la masa sanguínea, el volumen ventricular no varía y la
presión intraventricular se eleva.

En la fase de contracción isovolumétrica tiene lugar una serie de acontecimientos:

Cambios en la presión intraventricular.

El miocardio genera tensión, particularmente el ventrículo izquierdo, que es una bomba


de presión, y la presión intraventricular comienza a elevarse rápidamente. Cuando
alcanza de 1,3 a 4 kPa y unos 20 ó 30 ms después del comienzo de la contracción, la
válvula mitral se cierra y se pone bruscamente en tensión. La presión intraventricular se
eleva rápidamente. En esta fase se alcanza el valor máximo de la dP/dt y tiene lugar
también el máximo trabajo y consumo de O2 del miocardio. El ventrículo izquierdo tiene
160
la propiedad de pasar, merced a período de contracción isovolumétrica, del sistema de
baja presión de la circulación venosa al sistema de alta presión de la circulación
sistémica. La presión sigue ascendiendo hasta que supera la presión diastólica aórtica y
termina la fase de contracción isovolumétrica. Desde que se cierra la válvula mitral,
impidiendo el reflujo de sangre a la aurícula, hasta que la presión intraventricular supera
la presión diastólica aórtica y se abre la válvula aórtica, el ventrículo izquierdo es una
cámara cerrada, aislada de la aurícula izquierda y de la aorta, y lo mismo ocurre con el
ventrículo derecho, que está aislado de la aurícula derecha y de la arteria pulmonar.
Esta fase dura unos 50 ms.

Cambios de la cavidad ventricular.

En la fase de contracción isométrica o isovolumétrica la cavidad ventricular izquierda se


estrecha y alarga. Ello se debe a tres acontecimientos coordinados: la compresión del
bolo sanguíneo por la musculatura ventricular, sobre todo por el anillo basal
auriculoventricular, el abombamiento de la válvula mitral que anclada en los músculos
papilares contraídos se proyecta hacia la aurícula, y el desplazamiento del ápex hacia la
pared torácica, dando lugar al latido de la punta.

Cambios en la superficie del corazón.

En conjunto, la fase de contracción isovolumétrica se caracteriza por una vasculación


hacia delante del corazón anclado en las grandes arterias, un ligero cambio de la forma
del ventrículo, que se hace más esférico, y un aumento considerable de la presión
intraventricular.

Fase de eyección.

La función primordial de bomba del corazón se cumple en la fase de eyección, en la que


ambos ventrículos vacían el 70% de su contenido, expulsando el volumen de eyección
en contra de unas altas resistencias el ventrículo izquierdo, y en contra de bajas
resistencias el derecho.

El ventrículo no se vacía por completo durante la sístole. Siempre queda una cierta
cantidad de sangre al final de la sístole, unos 60 ml que se denomina volumen sistólico
final o volumen residual. El volumen sistólico de eyección es, pues, la diferencia entre el
volumen diastólico final y el volumen sistólico final, que en nuestro ejemplo es de 70 ml.
La relación entre el volumen de eyección y el volumen diastólico final se conoce como
fracción de eyección, que es uno de los índices más precisos de la función ventricular.
Determinada por medios angioigráficos, la fracción de eyección varía entre el 60 a 75%.

En condiciones de estrés, bajo la influencia de las catecolaminas, el corazón se puede


contraer más poderosamente y vaciar su contenido casi por completo, siendo entonces
la fracción de eyección de hasta el 80 a 85%. Cuando la función ventricular está
deprimida, aumenta el volumen sistólico final y disminuye la fracción de eyección, al

161
recurrir al corazón a la ley de Starling. La función ventricular es anormal cuando la
fracción de eyección es inferior al 50% y está gravemente deprimida cuando es del 30%.

Como en la fase anterior, se va a considerar la fase de eyección desde tres puntos de


vista: cambios en la presión, cambios en la cavidad ventricular y cambios en la superficie
externa del corazón.

Cambios de presión intraventricular.

La eyección comienza bruscamente, tras la apertura de las válvulas semilunares,


cuando la presión intraventricular excede la presión diastólica aórtica (cruce de
presiones ventrículo-aórticas) o pulmonar. En realidad, la eyección comienza aún antes
de la apertura de las válvulas sigmoideas aórticas. Antes de abrirse, éstas se mueven
como un pistón y se abomban hacia la aorta produciendo un desplazamiento de sangre
que da lugar al comienzo del pulso carotideo.

Cambios en la cavidad ventricular.

La cavidad endocárdica del ventrículo izquierdo se estrecha progresivamente en sus


diámetros anteroposterior, vertical y longitudinal. En el último tercio de la eyección el
estrechamiento de la cavidad es muy abrupto, haciendo prominencia a veces los
músculos papilares.

Cambios en la superficie del corazón.

La superficie epicardia basal durante la eyección continúa descendiendo hacia la punta,


que se retrae ligeramente de la pared torácica durante el último tercio de la sístole.
Todos los diámetros se acortan más o menos simétricamente en un 15% de la longitud
inicial, al mismo tiempo que la superficie externa, incluido el ápex, sufre un ligero giro
antihorario.

En la fase de eyección, el corazón derecho cumple su función de bomba de volumen de


paredes delgadas, enviando al árbol pulmonar un volumen de eyección
aproximadamente similar al volumen de eyección izquierdo, pero con una fracción de
eyección más baja, alrededor del 50%, lo que quiere decir que el volumen sistólico final
es mayor. La fase de eyección del ventrículo derecho es más larga que su homónima
izquierda.

En la fase de eyección el tabique interventricular, formado principalmente por masa


ventricular izquierda, se abomba hacia el ventrículo derecho, contribuyendo activamente
al movimiento de expresión del contenido del ventrículo derecho, en colaboración con la
pared libre que actúa como un fuelle y acentuando su forma de media luna. Al mismo
tiempo, la arteria pulmonar se desplaza ventral y caudalmente.

Por ser el corazón derecho una bomba de volumen, es más sensible a cambios ligeros
de la presión de llenado y la respiración influye más en el corazón derecho que en el

162
izquierdo. La inspiración, al disminuir la presión intratorácica, aumenta el llenado del
ventrículo derecho y el volumen de eyección subsiguiente, y retrasa el componente
pulmonar del segundo tono que indica el final de la fase de eyección (desdoblamiento
fisiológico del segundo tono). En condiciones normales, el aumento de llenado del
ventrículo derecho en la inspiración no interfiere con el llenado del ventrículo izquierdo.

Como se sabe, sobre el ventrículo derecho, en el área paraesternal, hay una ligera
retracción sistólica. Probablemente en ella colaboran tres elementos: el balanceo
contrario de la expansión sistólica izquierda, el movimiento de contracción horaria del
ventrículo derecho y la disminución del volumen sistólico del ventrículo derecho.

A diferencia del ventrículo izquierdo, en que el bolo de llenado es transferido desde la


porción de entrada hasta la punta antes de ser enviado a la aorta, en el ventrículo
derecho la sangre es enviada desde la porción de entrada a la porción de salida
evitando la zona trabeculada de la punta que permanece prácticamente exangüe. Sólo
cuando hay dilatación del ventrículo derecho se llena la punta.

Cuando sobreviene la contracción de la porción de entrada del ventrículo derecho hay


una expansión del tracto de salida, por traslocación de sangre de la porción de entrada a
la de salida. Hay un intervalo entre la contracción del tracto de entrada y el de salida,
contrayéndose este último más tarde y durando más su contracción. Esta distinta
situación fisiológica del tracto de salida se acentúa en algunas condiciones patológicas,
como la estenosis pulmonar infundibular, en la que el tracto de salida se contrae más
tarde y de forma más prolongada.

El ventrículo derecho tiene un giro horario de expresión, al mismo tiempo que desciende
considerablemente al anillo o banda muscular tricúspide. Por tanto, ambos ventrículos
tienen un giro contrario de la superficie externa siguiendo sus líneas anatómicas:
antihorario el ventrículo izquierdo y horario el derecho, confluyendo ambos sobre el
tabique interventricular, que actúa de charnela.

Periodo diastólico. Fase de relajación isovolumétrica.

Al cerrarse la válvula aórtica, el ventrículo vuelve a ser una cámara cerrada. Esta fase se
denomina de relajación isovolumétrica, porque el volumen sistólico final o volumen
residual no varía hasta que se abren las válvulas aurículo-ventriculares y comienza la
fase siguiente de llenado.

El comienzo de la diástole se suele referir a la producción del segundo tono. Que indica
el final de la protodiástole y el principio de la fase de relajación isovolumétrica. El
segundo tono se produce cuando la válvula aórtica se abomba y tensa hacia la cavidad
ventricular, unos 30 ms después del cruce de presiones ventricular y aórtica.

Inmediatamente después del cierre de la válvula aórtica y lo mismo ocurre con el


ventrículo derecho- la presión ventricular excede todavía la presión auricular, ambas

163
válvulas, mitral y tricúspide, permanecen cerradas y la sangre no entra ni sale de los
ventrículos.

Como el ventrículo comienza a expandirse al relajarse la musculatura cardíaca, la


presión ventricular desciende bruscamente, mientras que la presión aórtica, que
disminuye gradualmente, se mantiene elevada durante toda la diástole. La fase de
relajación isovolumétrica termina cuando se cruzan las presiones auriculares y
ventriculares. En este momento, las válvulas aurículo-ventriculares se abren y comienza
el llenado ventricular. Esta fase de diástole precoz es la imagen en espejo de la fase de
contracción isovolumétrica. En este momento, el ventrículo izquierdo pasa de ser un
sistema de alta presión a uno de baja presión.

La onda T del ECG, que señala la repolarización ventricular, tiene lugar en esta fase de
relajación isovolumétrica.

Fase de llenado rápido ventricular.

Cuando la presión ventricular desciende por debajo de la auricular, las válvulas aurículo-
ventriculares se abren y los ventrículos comienzan a llenarse, muy rápidamente al
principio y más lentamente después. El llenado ventricular se divide en tres fases: fase
de llenado rápido o pasivo, fase de llenado lento o diástasis y fase de llenado auricular o
activo, que ha sido considerado ya. La fase de llenado rápido, la más importante, es
relativamente precoz y muy rápida, incluso más rápida que la fase de eyección.

El hecho de que la eyección ventricular sea prácticamente completa durante la sístole


precoz y el llenado ventricular lo sea durante la diástole precoz, tiene un significado
funcional importante: asegura que la eyección y el llenado no están seriamente
comprometidos cuando aumenta la frecuencia ventricular tal como sucede en el ejercicio
o en el estrés emocional. En la primera parte de la fase de llenado ventricular hay
probablemente un mecanismo de succión activa.

Fase de llenado lento; diástasis o estasis.

El ventrículo continúa llenándose lentamente en esta fase, por lo que la curva de presión
intraventricular se horizontaliza con un ascenso muy lento. Esta fase, casi quiescente
desde el punto de vista hemodinámico, es larga en la bradicardia y desaparece en la
taquicardia. En nuestro esquema mide 190 ms y se continúa con la fase de llenado
auricular, descrita previamente.

6.6.1. Mecánica de la contracción cardiaca.

La eyección se efectúa acortándose el ventrículo en un 15% en tres diámetros:


longitudinal, anteroposterior y transversal. La banda muscular anudada a las grandes
arterias, formando dos lazadas helicoidales que se contraen sobre sí mismas, apoyadas
en su contenido hemático y acortando el helicoide, explica satisfactoriamente la
reducción tridimensional del corazón.
164
En esta reducción tridimensional del corazón hay tres componentes:

1. Un componente anular de lazadas basales y apexianas que da lugar a un movimiento


de constricción del miocardio ventricular en el plano transversal.
2. Un movimiento longitudinal de acortamiento, debido al componente helicoidal.
3. Un movimiento de expresión por el mismo componente helicoidal, que acentúa la
espiral igual que si se exprimiera una toalla.

6.6.2. Volumen minuto.

El volumen minuto es la cantidad de sangre vertida en un minuto por cada ventrículo y


como ambos ventrículos están exquisitamente balanceados, los dos volúmenes minutos
son esencialmente idénticos. El volumen minuto representa la función primordial del
corazón, la función de bomba, y sus dos determinantes principales son las necesidades
metabólicas y la masa corporal. Por ello el volumen minuto aumenta en la fiebre, en el
ejercicio físico, en el hipertiroidismo y en el embarazo, y disminuye en otras condiciones
como el sueño y el hipotiroidismo.

En reposo, el volumen minuto está en relación con la masa y la superficie corporal. El


volumen minuto alcanza su máximo valor a los 27 años y disminuye aproximadamente
un 1% por año, de modo que a los 60 años ha disminuido aproximadamente un 60% de
su valor juvenil.

El flujo total del organismo es limitado y está representado por el gasto cardíaco, que en
un individuo adulto de 70 K en reposo supone aproximadamente 5,5 L/min.

6.6.3. Regulación del volumen minuto. Retorno venoso.

El corazón sólo envía lo que recibe y por lo tanto en condiciones normales, el volumen
minuto es idéntico al retorno venoso. Es el organismo el que impone la cuantía del
volumen minuto y no la bomba.

Desde un punto de vista hidráulico, el corazón juega tan sólo un papel permisivo y no
regula su propio volumen minuto. El volumen minuto representa, pues, el balance entre
el retorno venoso y la capacidad de corazón para aceptar dicha demanda. En
condiciones normales el corazón dispone de un amplio rango de demandas que oscila
entre 5 y 30 l/min en atletas entrenados. Cuando el corazón está enfermo, el corazón es
incapaz de aumentar el volumen minuto en respuesta al aumento de las necesidades
periféricas.

Considérese la regulación del volumen minuto desde diversos puntos de vista:

a) Retorno venoso.

165
Es la cantidad de sangre que fluye desde las venas a la aurícula derecha cada minuto,
constituyendo la precarga. En condiciones normales el retorno venoso es igual al
volumen minuto, porque el volumen de eyección es igual al volumen de llenado. El
retorno venoso tiene lugar en un sistema de baja presión y gran capacidad y hay
muchos factores que influyen en él y le modifican. El factor principal es el gradiente de
presión y el sistema venoso de baja presión. Pero hay otros muchos factores que
colaboran con la musculatura esquelética de las extremidades inferiores, las válvulas
venosas, el tono veno-motor, la bomba respiratoria que aumenta el retorno venoso en la
inspiración y la propia succión de la relajación ventricular, puesto que el corazón es una
bomba aspirante-impelente.

Siempre que aumenta la presión de la aurícula derecha, en igualdad de circunstancias,


disminuye el retorno venoso y el volumen minuto. También se observa que si disminuye
la presión auricular derecha por debajo de cero el retorno venoso no aumenta
sencillamente porque se colapsan las venas cervicales.

b) Factores cardiacos.

En el ejercicio muscular, hay vaso dilatación local por el fenómeno de auto regulación y
estimulación simpática, que produce taquicardia, aumento de la contractilidad cardíaca y
vasoconstricción. Como resultado, aumenta la presión media sistémica y, por lo tanto, el
retorno venoso aumenta. Por otra parte, al aumentar la contractilidad el corazón no sólo
acepta el aumento de la precarga, sino que disminuye el volumen residual, aumenta el
volumen de eyección, y por lo tanto aumenta considerablemente el volumen minuto
hasta 20 a 25 l/min. Los atletas de alto rendimiento aumentan el volumen minuto hasta
30 a 35 l/min. El corazón humano normal varía el volumen minuto desde 20-15 l/min en
condiciones de ejercicio extremo hasta límites tan bajos como un tercio del volumen
minuto normal. Cuando se ha utilizado por completo la reserva de extracción artero-
venosa de O2, la reducción ulterior del volumen minuto produce hipoxia tisular,
metabolismo anaerobio, acidosis y colapso circulatorio.

c) Frecuencia cardiaca.

En el corazón normal la frecuencia cardíaca es mucho más importante que el aumento


del volumen sistólico en los ajustes del volumen minuto en las necesidades cambiantes
del organismo. Sin embargo, si en reposo se aumenta la frecuencia cardíaca por medio
de un marcapaso, el volumen minuto aumenta ligeramente al principio, se estabiliza
enseguida y a partir de 120 a 130 latidos/min comienza a disminuir, mientras que en un
joven el volumen minuto aumenta hasta, al menos, una frecuencia de 180 latidos/min.

Ello se debe a que la taquicardia fisiológica, por ejemplo, del esfuerzo, se debe a la
descarga simpática que aumenta la frecuencia, la contractibilidad y la relajación cardíaca
abreviando la sístole y la diástole, de modo que el corazón acepta el aumento del
retorno venoso y cumple el mismo trabajo sistólico, o un poco mayor, en menos tiempo.

6.7. Introducción a la electrocardiografía.

166
La electrocardiografía convencional estudia el registro de la actividad eléctrica cardíaca
mediante unos aparatos denominados electrocardiógrafos. Esta actividad se registra en
forma de una línea que presenta distintas inflexiones que se corresponden con el paso
del estímulo eléctrico desde el lugar donde normalmente se origina, el nodo sinusal,
hasta los ventrículos a través del sistema específico de conducción (SEC). Se recuerda
que dicho sistema está formado (Figura 6.10) por el nodo sinusal, las vías preferenciales
de conducción interauricular e internodal, el nodo auriculoventricular (AV), el haz de His,
las dos ramas del haz de His y sus divisiones, con sus respectivas redes de Purkinje.
Cuando el estímulo llega a la unión Purkinje - músculo, se produce el acoplamiento
excitación - contracción.

Figur
a 6.10. Diagrama del sistema específico de conducción del impulso desde el nodo
sinusal al miocardio ventricular. La rama derecha del haz de His y las tres divisiones de
la rama izquierda originan las redes de Purkinje que están interconectadas (1, 2, 3 y 4).

Estas fuerzas eléctricas generadas por el corazón tienen una representación vectorial.
Hay que recordar que un vector es una magnitud con una dirección y un sentido, que
puede representarse gráficamente. Para explicar la morfología electrocardiográfica se
recurre a la teoría vectorial. De acuerdo con ella, la activación de las estructuras
cardíacas (aurículas y ventrículos) origina la formación de distintos vectores de
activación que nos permiten explicar la morfología electrocardiográfica. Para ello, se
considera que se graba una deflexión positiva en la zona (derivación) donde está
emplazado un electrodo de registro cuando éste está enfrentado con la carga positiva de
un vector (cabeza), y una deflexión negativa si el electrodo está enfrentado con la carga
167
negativa del vector (cola), independientemente de que el vector se aleje o se acerque.
En la Figura 6.11 se expone gráficamente este fenómeno, considerando que un vector
es como un carro con los faros encendidos, los cuales corresponden a la cabeza del
vector, y que, con independencia de que vaya hacia delante o marcha atrás, iluminara
siempre la zona que quede enfrentada con los faros.

Figura 6.11. A. Se observa que, independientemente de que el carro se acerque (parte


superior) o se aleje yendo marcha atrás (parte inferior), el electrodo (+) registra
positividad, porque está siempre enfrentado con la cabeza -flecha- del vector,
equivalente a los faros del carro. B La misma explicación para comprender por qué se
registra negatividad, tanto si el vector se acerca marcha atrás, faros en dirección
opuesta, (parte superior) como si se aleja (parte inferior).

La activación de una estructura cardíaca, igual que la activación de una célula cardíaca,
implica primero la despolarización de dicha estructura, después su repolarización y más
tarde, una fase de reposo eléctrico (polarización).

Una célula o una estructura cardíaca esta polarizada cuando existe un equilibrio entre
las cargas eléctricas positivas de la superficie externa y las cargas eléctricas negativas
del interior celular. La despolarización celular significa la pérdida de este equilibrio, por
hacerse negativo el exterior celular y positivo el interior, y la repolarización celular
significa la recuperación del equilibrio perdido.

Por cada ciclo cardíaco se registran sucesivamente en el ECG las ondas de


despolarización auricular (onda P), un espacio recto que corresponde al paso del
168
estímulo por el sistema His- Purkinje (H-P), la despolarización ventricular (complejo
QRS) y la repolarización ventricular (segmento ST y onda T) para, a continuación,
registrarse un intervalo rectilíneo correspondiente al reposo eléctrico diastólico. El
intervalo recto que se registra durante la fase de reposo diastólico es variable,
dependiendo de la frecuencia cardíaca. Normalmente, se registran estas diferentes
ondas desde distintos puntos (derivaciones) mediante electrodos. Cuando el electrodo
está situado en la zona precordial correspondiente a la pared libre ventricular izquierda,
la curva registrada presenta una morfología similar a la de la Figura. 6.12.

Figura 6.12. Curva electrocardiográfica obtenida con electrodos de superficie situados en


zonas que corresponden a la pared libre del ventrículo izquierdo.

El ECG es fundamental para el estudio de los pacientes con arritmias cardíacas,


trastornos de la Conducción, síndrome de pre-excitación y cardiopatía isquémica.
También es muy importante para el estudio evolutivo de las demás cardiopatías y para
realizar trabajos epidemiológicos. Su valor, además, se ha visto incrementado con la
introducción de técnicas que permiten conocer la actividad eléctrica cardíaca de forma
dinámica, como son la electrocardiografía de esfuerzo y el registro continuo del ECG en
cinta magnética y con interpretación acelerada (electrocardiografía de Holter), y con la
aplicación a la electrocardiografía convencional de los conocimientos adquiridos gracias
a las investigaciones y los estudios realizados con las técnicas de electrocardiografía
intracavitaria.

Sin embargo, a pesar de su inestimable valor diagnóstico, la electrocardiografía puede


ser un arma más peligrosa que eficaz si se confía en exceso ante un ECG normal o
valoramos en demasía un ECG patológico. La electrocardiografía es una técnica
diagnóstica que nos proporciona una ayuda a veces decisiva, pero que el enfoque global
del paciente (diagnóstico, pronóstico y terapéutico) sólo debe realizarse mediante la
correlación de la clínica con la electrocardiografía y otras técnicas auxiliares.

169
Figura 6.13 A, B y C En la parte izquierda (dentro del esquema del corazón) se ha
dibujado de forma esquemática cómo se originan tridimensionalmente las asas de P,
QRS y T, de acuerdo con la teoría vectorial. En la parte derecha se ve la proyecci6n del
asa de P (A), QRS (B) y T (C) en el plano frontal y la correlación asa-morfología
electrocardiográfica en la derivación I. D. Las tres asas, juntas en el plano frontal, con el
ECG resultante.

6.8. Fundamentos electrofisiológicos.

6.8.1. Introducción.

Se expone en primer lugar los tipos y las propiedades electrofisiológicas de las distintas
células cardíacas y las características de la activación celular, haciendo hincapié en el
concepto de dipolo de despolarización y repolarización y en la expresión vectorial de
estos dipolos.

6.8.2. Células cardiacas.

Desde el punto de vista anatómico-funcional, las células cardíacas son de tipo contráctil
y específico.

Las células contráctiles, cuya función principal es la mecánica dc bomba, son todas ellas
parecidas entre sí (largas y estrechas) y desde el punto de vista ultra estructural están
formadas por tres componentes: la membrana celular (sarcolema) presenta unas
invaginaciones que constituyen el llamado sistema T, que llevan la energía eléctrica al
170
interior celular. El sistema T comunica con el sarcómero mediante el retículo
sarcoplásmico, que es el lugar donde se almacena el calcio necesario para la
contracción. La membrana celular presenta unos poros de 3,5 Å de radio, que permiten
el intercambio iónico. Además de las invaginaciones del sistema T, la membrana celular
presenta, en la parte final de cada célula contráctil, los denominados discos intercalados,
que facilitan la conducción de estímulos de unas células a otras. El sarcómero, que es la
unidad contráctil, está formado por diferentes bandas proteicas de actina y miosina que,
juntas, forman las miofibrillas. La llamada banda Z separa los filamentos de actina de
dos sarcómeros. En las mitocondrias se forman y almacenan los compuestos de alta
energía (ATP) necesarios para la contracción. Electrofisiológicamente las células
contráctiles y las de Purkinje corresponden a las células denominadas por Cranefield, de
acuerdo con su capacidad de respuesta durante la despolarización sistólica, de
respuesta rápida (Figura. 16A), aunque tienen una capacidad de despolarización
diastólica espontánea nula o disminuida (poco o nada de automatismo).

Figura 6.14. A. Fibra miocárdica contráctil (de respuesta rápida). B. Fibra miocárdica
automática (de respuesta lenta). PTD= potencial transmembrana diastólico; PAT =
potencial de acción transmembrana; PU = PT = potencial umbral.

Las células específicas tienen como principal función la formación de estímulos y su


conducción desde el nodo sinusal, donde normalmente se originan, hasta las células
contráctiles auriculares y ventriculares. Ultra estructuralmente son de tres tipos: células
P, células transicionales y células de Purkinje. Las células P, muy abundantes en el
nodo sinusal, se supone que son las células con mayor capacidad de formación de
estímulos, células automáticas (pacemaker). Desde el punto de vista ultra estructural
tienen, en comparación con las células contráctiles, muy pocas miofibrillas, que además
están dispuestas al azar, y escasas mitocondrias, y un retículo sarcoplásmico poco
desarrollado. La conducción lenta dentro del nodo sinusal se explica en parte por la falta
de discos intercalados. Electrofisiológicamente corresponden a las células designadas
por Cranefield de respuesta lenta, en razón a su menor capacidad de respuesta durante
la despolarización sistólica. Dichas células, sin embargo, se caracterizan por su mayor
171
capacidad de presentar una despolarización diastólica espontánea marcada (más
automatismo) (Figura 16B). Las células transicionales son un grupo heterogéneo que
comprende células de estructura intermedia entre las células P, las dc Purkinje y las
contráctiles. Las células de Purkinje se encuentran fundamentalmente en las ramas del
haz de His y en las redes de Purkinje. Presentan abundantes discos intercalados y
pocas fugas dc corriente, pues existen pocos sistemas T, lo que puede explicar su
conducción rápida. Las fibras contráctiles conducen peor a pesar de tener discos
intercalados, porque tienen muchas fugas de corriente (sistema T).
Electrofisiológicamente las células de Purkinje corresponden, como las contráctiles, a las
células de respuesta rápida.

6.8.2.1. Propiedades

Desde el punto de vista electrocardiográfico las más importantes son: el automatismo, la


excitabilidad y la capacidad de conducción. Las alteraciones de dichas capacidades se
estudian junto con las arritmias cardíacas.

6.8.2.1.1. Automatismo.

Es la propiedad que tienen algunas células cardíacas de formar estímulos capaces de


propagarse (Figura 6.15). Las células con mayor automatismo son las del nodo sinusal,
porque son las que presentan una mayor despolarización diastólica espontánea y, por
tanto, tienen capacidad de originar más descargas por unidad de tiempo.
Electrofisiológicamente corresponden a las células de respuesta lenta (despolarización
sistólica lenta). Más adelante se comentará las bases iónicas del automatismo cardíaco.

El automatismo normal del corazón depende, pues, del nodo sinusal, pero existe
automatismo subsidiario en otras zonas menos ricas en células de características
parecidas a las sinusoidales, como el nodo AV, e incluso en el sistema de His-Purkinje,
en donde la mayoría de las células son de respuesta rápida y hay cierto grado de
automatismo. La frecuencia de descarga de una célula automática depende del tiempo
que tarda la curva de despolarización diastólica espontánea (prepotencial o curva de
potencial transmembrana diastólico) en alcanzar el potencial umbral, de forma que, a
menos tiempo, lo que equivale a una despolarización diastólica más rápida, corresponde
una frecuencia de descarga más alta. Esta frecuencia de descarga depende de tres
factores (Figura 6.16): a) rapidez de ascenso de potencial transmembrana diastólico
(PTD), prepotencial o fase 4: a mayor rapidez de ascenso, mayor frecuencia de
descarga, y a la inversa; b) nivel del potencial umbral (PU): cuanto más bajo (más lejos
del cero), mayor es la frecuencia de descarga, y a la inversa, y c) nivel inicial del PTD:
cuanto más negativo (más lejos del cero), menor es la frecuencia de descarga, y a la
inversa.

172
Figura 6.15. El estímulo, originado en el nodo sinusal, se propaga hacia la unión AV y el
haz de Purkinje ventricular.

Figura 6.16. Factores que influyen en el aumento del automatismo (líneas discontinuas).
A. Despolarización diastólica más rápida. B. Disminución del potencial umbral. C.
Potencial transmembrana diastólico (PTD) más negativo.
6.8.2.1.2. Excitabilidad. Período refractario.

173
Es la propiedad que tienen todas las células cardíacas de responder a un estímulo
eficaz. Las células automáticas se auto-excitan, mientras que las células contráctiles se
excitan porque reciben otro estímulo proveniente de una célula vecina (Figura 6.15).

El período refractario es el tiempo que tardan las células en recuperar su excitabilidad.


En las células de respuesta rápida, la recuperación de la excitabilidad está en relación
con el nivel de la fase final del potencial de acción transmembrana (PAT) (la
recuperación de la excitabilidad es voltaje-dependiente), y en las células de respuesta
lenta está en relación con el tiempo transcurrido (la recuperación de la excitabilidad es
tiempo-dependiente).

En el PAT de las células cardíacas se pueden distinguir distintas fases de excitabilidad,


que se corresponden con sus distintos períodos refractarios. En la Figura 6.17 se ilustran
dichos períodos en una célula de respuesta rápida (contráctil). En una zona o un tejido
del sistema específico de conducción se mide fundamentalmente el período refractario
efectivo y funcional; para ello se utiliza la técnica de aplicación de extra estímulos cada
vez más precoces en la diástole. Clínicamente, en un ECG convencional se utilizan los
conceptos de período refractario absoluto y relativo, cuya ubicación en el segmento ST-T
puede verse en la figura 20. El período refractario relativo empieza en el momento en
que un estímulo supra-ventricular se conduce más lentamente de lo normal (el intervalo
PR pasa, por ejemplo, de 0,20 a 0,2S seg, cuando se acelera la frecuencia sinusal,
acortándose el intervalo RR o en presencia de un impulso auricular prematuro ectópico),
y el período refractario absoluto empieza en el momento en que un estímulo supra
ventricular no se conduce (p. ej., una onda P sinusal que queda bloqueada a partir de un
aumento determinado de la frecuencia, acortamiento del intervalo RR, o una onda P
ectópica, que queda bloqueada cuando es muy precoz).
(sigue gráfica...)

Figura 6.17. Potencial de acción transmembrana de una fibra de respuesta rápida con la
duración del periodo refractario absoluto (PRA), el periodo refractario relativo (PRR) y el
tiempo de recuperación total (TR total). A = zona de respuestas locales. B = zona de
respuestas propagadas mediante un estímulo supra umbral.

174
Figura 6.18. Diagrama de la ubicación aproximada en el ECG clínico del periodo
refractario absoluto (PRA), el periodo refractario relativo (PRR), el periodo vulnerable
(PV) y el periodo supernormal.

6.8.2.1.3. Conductibilidad

Es la capacidad que tienen las células cardíacas de conducir los estímulos a las
estructuras vecinas. Puede ser de dos tipos (Figura 6.19): regenerativa, en las células de
respuesta rápida, y decremental, en las células de respuesta lenta. Las velocidades de
conducción normales en las distintas estructuras cardíacas son (Figura 6.20): aurículas,
1-2 m/seg; nodo AV, 0,02-0,05 m/seg; sistema de His-Purkinje, 1,5-3,5 m/seg;
ventrículos, 0,4 m/seg.

175
Figura 6.19. Arriba. Ejemplo de conducción regenerativa y decremental. Abajo.
Potenciales de acción transmembrana de aurícula, zonas AN, N, NH de la unión AV y
del haz de His.

La mayor o menor velocidad de conducción depende fundamentalmente de: a) velocidad


de ascenso del PAT (dv/dt de la fase 0), que es rápida en las células de respuesta
rápida y lenta en las de respuesta lenta; esto se explica porque las células de respuesta
rápida tienen un nivel de PTD más bajo y, por la curva de respuesta de la membrana,
esto se corresponde con una mayor velocidad de ascenso del PAT (Figura 6.20), y b)
características ultra estructurales, ya que, por ejemplo, las fibras estrechas (contráctiles
y transicionales) o con pocos discos intercalados (células P) conducen más lentamente
que las anchas (Purkinje). Por lo tanto, cuando se pasa de una zona de fibras estrechas
y/o con pocos discos intercalados a una zona de fibras anchas [p. ej., paso de la zona
nodo hisiana (NH) de la unión AV (nodo AV, el haz de His y las áreas adyacentes) al
sistema His-Purkinje] la conducción se hace más rápida.

176
Figura 6.20. Esquema de la morfología de los potenciales de acción transmembrana de
las diferentes estructuras del sistema de conducción y de la velocidad de conducción (en
m/seg) del estímulo a través de las estructuras.

6.8.3. Activación celular.

La activación celular comprende los fenómenos electro-iónicos que se producen a través


de la membrana celular en las fases de despolarización y repolarización celular, que
ocurren durante la sístole. Para comprenderlas bien, se ha de conocer primero los
fenómenos electro-iónicos que se presentan en la fase de polarización diastólica (reposo
celular).

6.8.3.1. Fase de polarización. Bases iónicas del automatismo cardíaco.

Las células cardíacas contráctiles están polarizadas en la diástole, lo que significa que
existe un equilibrio entre las cargas eléctricas positivas de fuera (fundamentalmente Na+
y Ca++) y las negativas de dentro (sobre todo aniones no difusibles que son negativos y
dominan ampliamente la positividad del K+, que es el ion intracelular más importante)
(Figura 6.21).

177
Figura 6.21. Distribución iónica durante la sístole. Cuanto mayor es el tamaño de las
letras, más predominante es el ión en el interior o en el exterior.

Sólo puede hablarse de auténtica polarización diastólica, y por lo tanto, de auténtico


reposo celular, en las células contráctiles, pues sólo en ellas existe un PTD medido con
un micro electrodo situado por fuera y otro por dentro de la membrana celular, estable
(Figura 6.22). Este PTD estable de las células contráctiles corresponde, pues, a un
auténtico potencial de reposo transmembrana. En todas las células del sistema
específico de conducción (SEC) el PTD no es estable a lo largo de la diástole,
dependiendo su curva de ascenso del grado de automatismo (despolarización diastólica)
que presenten (Figura 6.20).

Figura 6.22. Diferencia de potencial entre el exterior celular (+) y el interior (-).
La razón de que las células contráctiles en condiciones normales presenten un PTD
estable y las automáticas no, tiene una base iónica aún no del todo conocida.
Básicamente se explica porque en las células contráctiles existe durante la diástole un
178
auténtico reposo celular, porque hay un auténtico equilibrio entre las corrientes iónicas
que entran (corrientes de Na+ y Ca++) y salen (corrientes de K+) de la célula. La pérdida
del reposo celular, es decir, la presencia de un PTD más o menos ascendente que existe
en todas las células del SEC, se debe a que, en éstas, las corrientes de entrada de Na+
y Ca++ superan, en mayor o menor grado, a las de salida de K+. La corriente diastólica
de entrada de Na+ y Ca++ más importante es la denominada Ibi. La corriente diastólica
de salida de K+ más importante en las células de Purkinje, y probablemente en las
contráctiles, es la IK2, y en las células del nodo sinusal es la Ip. Cuando estas corrientes
de K+ se inactivan, el flujo iónico del interior celular de Na+ y Ca++, fundamentalmente a
través de la corriente Ibi, es superior a la salida de K+. El automatismo del nodo sinusal
es más importante que el de las fibras de Purkinje, porque la corriente diastólica de
salida dominante de K+ de las células del nodo sinusal (Ip) se inactiva más rápidamente
que la IK2 (Figura 6.23).

Figura 6.23. Corrientes iónicas durante la sístole y diástole a través de la membrana


celular (MC) en una célula de respuesta rápida contráctil (A), de Purkinje (B) y de
respuesta lenta (C).

179
En esta situación existe una tendencia al cruce entre las curvas de permeabilidad
(conductancia, g, es decir, el valor inverso de la resistencia de una membrana al paso de
un ion) del K+ por la membrana, que están disminuyendo (o sea, que sale menos K+ al
exterior), y las curvas de conductancia del Na+ y Ca++ que están aumentando (es decir,
que entran más Na+ y Ca++ al interior). Cuando este cruce ocurre, se genera el
fenómeno de automatismo, que se pone de manifiesto porque empieza la
despolarización celular sistólica con el inicio de la formación de un PAT capaz de ser
propagado. El punto de cruce de las conductancias de Na+ y K+, que explica el
automatismo cardíaco y el inicio del PAT, se corresponde con el PU y es distinto en las
células contráctiles y en las del SEC. (Figuras 6.14 y 6.24).

Figura 6.24. Curvas de permeabilidad de una célula automática (A) y de una contráctil (B).

Todas las células del SEC tienen cierto grado de despolarización diastólica, que explica
que el PTD sea ascendente. El nodo sinusal es la estructura que presenta un PTD con
ascenso más brusco, debido a su capacidad de alcanzar antes el PU, al cruzarse antes
las conductancias de Na+ y K+. Como consecuencia de todo esto, el nodo sinusal puede
generar antes que ninguna otra estructura cardíaca un PAT capaz de ser transmitido.

6.8.3.2. Fase de activación celular. Despolarización y repolarización.

Corresponde a la despolarización y a la repolarización celulares, fenómenos que ocurren


durante la sístole. La activación celular origina una curva denominada potencial de
acción transmembrana (PAT). Este consta de una fase de despolarización celular (fase
0) y una de repolarización celular (fases 1, 2 y 3), alcanzando al final de la fase 3 (final
de la sístole) el mismo PTD previo (inicio de la fase 4).

180
No todas las células cardíacas dan origen al mismo PAT. Fundamentalmente existen
dos tipos, denominados por Cranefield PAT de respuesta rápida y PAT de respuesta
lenta (Figura 6.25).

Figura 6.25. Relación entre el valor del potencial diastólico (en mv) y la velocidad de
respuesta.

El PAT de respuesta rápida (células contráctiles y del sistema His-Purkinje) parte de un


PTD más negativo (-85 a -90 mV) y tiene un ascenso (fase 0) más brusco, debido a la
correlación entre el nivel de PTD y la velocidad de ascenso del PAT (Figura 6.25). En
este caso el PAT no se genera espontáneamente, pues el PTD es estable (células
contráctiles) o presenta sólo una despolarización diastólica ligera (células de Purkinje).
Es necesario que el impulso proveniente de las células automáticas (Figura 6.15)
condicione una brusca entrada de Na+ a través de los canales rápidos (corriente INa)
(Figura 6.23) que permite el cruce de la gNa y la gCa (Figura 6.24). A esta brusca
entrada de Na+ a través de los canales rápidos le sigue una entrada de Ca++ y Na+ a
través de los canales lentos (Isi). El incremento brusco de la permeabilidad al Na+,
gracias al influjo proveniente de las células automáticas, permite que las células
contráctiles se despolaricen y que las de Purkinje lo hagan antes de lo que ocurriría
espontáneamente. No se debe olvidar que la inactivación de las corrientes de salida
diastólica de K+ (sobre todo IK2) en las células de Purkinje es mucho más lenta que la
inactivación de las corrientes de K+ (Ip) del nodo sinusal y, por ello, su automatismo es
mucho menor (Figura 6.24).

181
El PAT de las células de respuesta lenta (automática) se genera espontáneamente,
porque la inactivación de la corriente de salida de K+ (Ip) es mucho más precoz e
importante que en las otras células del SEC. Esto determina una entrada
progresivamente mayor de Na+ y Ca++ (corrientes Ibi) y facilita el cruce espontáneo de
la gNa+ y la gK+, lo cual constituye la clave de la capacidad de automatismo de dichas
células (Figura 6.24). El ascenso lento de la fase 0 del PAT de las células de respuesta
lenta se explica porque no hay una brusca entrada de Na+ y porque el PTD es menos
negativo y, por consiguiente, la velocidad de ascenso del PAT es menor (Figura 6.25).

Tanto en las células de respuesta rápida como en las de respuesta lenta, los cambios
iónicos mencionados originan cambios eléctricos de forma que al final de la
despolarización (final de la fase 0), las cargas eléctricas se han modificado, existiendo
ahora un predominio negativo en el exterior (por la entrada de Na+ y, al final, en menor
grado de Ca++). El paso de una situación a la otra ocurre de forma progresiva (Figura
6.26), a medida que se van produciendo los cambios iónicos a través de la membrana
con distintos niveles de voltaje.

Figura 6.26. Esquema de la correlación electrónica en una célula contráctil.

6.8.4. Activación cardiaca.


182
Con los aparatos convencionales de electrocardiografía sólo se registra la activación de
la masa muscular auricular y ventricular, no siendo posible grabar la activación del nodo
sinusal ni la del resto del sistema específico de conducción.

6.8.4.1. Activación auricular. Asa de P.

El sitio normal de formación de impulsos marcapasos en el corazón es el nodo sinusal,


pequeña estructura en forma de elipse, de unos 15 mm de longitud, situada cerca de la
unión de la vena cava superior con la aurícula derecha.

A partir del impulso sinusal se produce la despolarización encadenada de todo el


corazón, primero de las aurículas, para después propagarse el estímulo a través del
sistema específico de conducción y despolarizarse los ventrículos.

6.8.4.2. Transmisión del impulso de las aurículas a los ventrículos.

La onda de despolarización auricular se propaga muy lentamente por la parte alta (AN) y
media (N) del nodo AV, debido a la presencia de células de respuesta lenta, que
determinan una conducción decremental. La conducción no se detiene porque, al llegar
a la parte baja del nodo (zona NH), las células son predominantemente de respuesta
rápida y la velocidad de conducción es mayor. Al llegar el estímulo al haz de His, la
velocidad de conducción aumenta mucho. Las fibras del haz de His ya están
predestinadas hacia la rama derecha o izquierda.

6.8.4.3. Activación ventricular.

Despolarización ventricular. Asa de QRS.

Una vez que el estímulo llega a las dos ramas, se transmite por ellas a una velocidad de
conducción parecida a la del haz de His (l.5 a 2 m/seg).

La despolarización ventricular se puede dividir en tres fases cada una de las cuales se
puede expresar por un vector. Durante la primera fase (10 mseg) la despolarización
inicial de los ventrículos y de la parte media del tabique origina un vector pequeño que
va hacia la derecha, hacia delante y hacia arriba o abajo (con mayor frecuencia hacia
arriba); durante la segunda fase (30 a 40 mseg) se despolariza la mayor parte de la
pared libre de ambos ventrículos y la parte baja del tabique, originándose un vector
importante dirigido hacia la izquierda algo hacia atrás y en general hacia abajo en la
tercera fase (15 a 25 mseg) se origina un vector pequeño dirigido hacia arriba algo
hacia atrás y a la derecha.

183
Repolarización ventricular. Asa de T.

En el corazón humano el proceso de repolarización de la pared libre del ventrículo


izquierdo es prácticamente responsable de toda la repolarización de los ventrículos.

En resumen, el estímulo eléctrico originado en el nodo sinusal se propaga


sucesivamente al músculo auricular y, a través del nodo AV y del sistema His-Purkinje a
los ventrículos. Cuando el proceso de activación ventricular (despolarización +
repolarización) ha terminado, lo que coincide con el final de la sístole, se produce una
fase de reposo celular (diástole eléctrica). Existe, pues, una estructura (el nodo sinusal)
con automatismo, que transmite los estímulos que en ella se genera a todo el corazón.
El proceso es parecido al que ocurre con una fila de fichas de dominó en la que la
primera (equivalente al nodo sinusal) tiene movimiento propio, al tocar a la segunda, le
transmite dicho movimiento, que pasa luego a las sucesivas fichas, hasta que todas
(todas las estructuras del corazón) se hayan caído (despolarizado). Después, todas las
fichas se pondrían de nuevo en pie gracias a un movimiento intrínseco (repolarización),
para iniciar, al cabo de cierto tiempo (fase de reposo), un nuevo proceso de caída
(despolarización) (Figura 6.27).

184
Figura 6.27. Secuencia de activación cardiaca.

6.9. Electrocardiografía normal.


185
6.9.1. Nomenclatura de las ondas.

Cuando se registra un ECG, se inscribe una serie de ondas por cada ciclo cardíaco.
Einthoven denominó a estas ondas P, Q, R, S y T, de acuerdo con su orden de
inscripción, correspondiendo la onda P a la despolarización auricular, el complejo QRS a
la despolarización ventricular y la onda T a la repolarización ventricular (Figura 6.28). En
ocasiones, a continuación de la onda T se graba una pequeña onda llamada U.

Figura 6.28. Relaciones temporales entre las diferentes ondas del ECG y
nomenclatura de los diferentes intervalos y segmentos.

El complejo QRS puede tener distintas morfologías, con deflexión negativa inicial o sin
ella. Si esta existe, se llama onda Q. La onda R es la deflexión positiva y la onda S es la
deflexión negativa que sigue a una onda R. Si hay varias ondas R o S, se numeran de la
siguiente forma: R, R', R" y S, S', S". El voltaje de las ondas se mide en sentido
horizontal. En un complejo QRS las ondas de buen voltaje se señalan con una letra
mayúscula y las más pequeñas con una letra minúscula. El complejo exclusivamente
negativo se denomina QS.

Los intervalos y segmentos más importantes son:

 Intervalo PR. Es la distancia comprendida desde el inicio de la onda P hasta el inicio


del complejo QRS. También se denomina intervalo PQ.
 Segmento ST. Abarca desde el final del QRS hasta el inicio de la onda T.
 Intervalo QT. Comprende desde el principio del QRS (Q o R) hasta el final de la
onda T.

186
La repolarización auricular (ST-Ta) queda enmascarada, en condiciones normales, por
las potentes fuerzas de despolarización ventricular.

6.9.2. Tipos de derivaciones.

La actividad eléctrica del corazón se registra captándola a través de unas placas


metálicas (electrodos) colocadas en distintos puntos, denominados derivaciones.

Como el corazón es un órgano tridimensional, y dado que no se puede registrar en una


superficie plana (papel de registro o pantalla de monitor) una imagen tridimensional, es
necesario proyectar las fuerzas eléctricas cardíacas sobre dos planos, frontal y
horizontal, con el fin de conocer si dichas fuerzas se dirigen de arriba-abajo, derecha-
izquierda, delante-atrás. Para ello es suficiente que se registren a través de las distintas
derivaciones las fuerzas eléctricas cardíacas proyectadas sobre el plano frontal (arriba-
abajo), y sobre el plano horizontal (derecha-izquierda).

6.9.2.1. Derivaciones del plano frontal.

Pueden ser bipolares y monopolares.

6.9.2.1.1. Derivaciones bipolares.

Son las que registran las diferencias de potencial entre dos puntos del cuerpo. Las
derivaciones bipolares tienen dos polos, uno positivo y otro negativo, y se denomina
línea de derivación a la que une estos dos polos.

En electrocardiografía clínica se emplean tres derivaciones bipolares, que constituyen un


circuito cerrado, y a las que Einthoven designó I, II, III (Dl, D2, D3). Para su registro se
colocan electrodos en el brazo derecho, el brazo izquierdo y el pie izquierdo (Figura
6.29).

Figura 6.29. Silueta humana con los cables de las derivaciones I, II y III.
Einthoven consideró estas tres derivaciones bipolares (I, II y III) como un circuito
cerrado, y la suma total de las diferencias tensionales entre distintos puntos que
constituyen un circuito cerrado.

187
Con el fin de entender mejor la morfología del ECG en las derivaciones bipolares, I, Il y
III, Einthoven tomó la segunda derivación con una polaridad invertida, por lo que utilizó:

(VF-VR) en lugar de -(VR-VF),

con lo que: (VF-VL)+(VF-VL)= - (VR-VF)

pasa a ser: (VL-VR)+(VF-VL)=(VF-VR);

en consecuencia, y como VL-VR=I, VF-VR=II y VF-VL=III, I+III=II.

Esta relación se conoce como la ley de Einthoven.

Esta ley, que debe cumplirse siempre en electrocardiografía, nos permite asegurar que
el ECG está correctamente registrado (cables bien colocados) y rotulado.

Sobre la base de la ley enunciada, Einthoven, partiendo del principio de que era igual
colocar los electrodos en los brazos o en las piernas, que en las raíces de los miembros
(hombro derecho, hombro izquierdo y pubis) y considerando que el tronco humano es
una esfera conductora homogénea que tiene en su centro el corazón, describió su
triángulo, cuyas características se ilustran en la Figura 6.30.

Figura 6.30. A. Triángulo de Einthoven. B. Su traslado al cuerpo humano.


6.9.2.1.2. Derivaciones monopolares de las extremidades.

Las derivaciones bipolares de las extremidades tienen el inconveniente de que registran


sólo diferencias de potencial eléctrico y no el potencial real neto en un punto de la
superficie del cuerpo. Para separar las derivaciones bipolares en sus dos componentes,
188
Wilson unió los tres vértices del triángulo de Einthoven (brazo derecho, brazo izquierdo y
pierna izquierda) por medio de resistencias de 5.000 ohmios a un solo punto llamado
central terminal, con lo cual obtuvo en dicho punto un potencial cero. Conectando
después el electrodo explorador al brazo derecho (R), al brazo izquierdo (L) o a la pierna
izquierda (F), obtuvo los potenciales absolutos monopolares de dichos miembros,
registrados respectivamente en las derivaciones VR, VL y VF (Figura 6.31).

Figura 6.31. Derivaciones monopolares.

Derivaciones del plano horizontal.

Es necesario, para añadir a la información que da el plano frontal (dirección de los


vectores hacia arriba o hacia abajo, a derecha o a izquierda), conocer la situación
anterior o posterior de las fuerzas eléctricas del corazón. Dichas derivaciones son
particularmente útiles para los casos en los cuales los vectores cardíacos sean
perpendiculares al plano frontal, pues la proyección de un vector sobre el plano que le es
perpendicular es igual a cero y, por tanto, las derivaciones del plano frontal no la ponen
de manifiesto, mientras que, al ser el vector, más o menos paralelo al plano horizontal,
su proyección sobre éste es evidente.

Las derivaciones del plano horizontal que se utilizan en electrocardiografía clínica son
las precordiales monopolares, en las que el electrodo se coloca en distintos puntos del
precardio (Figura 6.32). Normalmente se utilizan seis derivaciones (de V1 a V6).

189
Figura 6.32. Derivaciones monopolares precordiales.

6.9.3. Rutina de interpretación.

Es aconsejable valorar, sucesivamente, los siguientes parámetros:

 Ritmo y frecuencia cardíaca.


 Intervalo y segmento PR.
 Intervalo QT.
 Cálculo del eje eléctrico medio del corazón en el plano frontal.
 Análisis de la onda P.
 Análisis del complejo QRS.
 Análisis del segmento ST y de la onda T.
 Análisis de la onda U.

6.9.4. Registro de la actividad eléctrica del corazón (ECG).

Aparatos de registro electrocardiográfico

La mayoría de los aparatos de registro electrocardiográfico son de inscripción directa, los


sistemas de inscripción más utilizados son los de chorro de tinta, papel termosensible y
papel de calco. En la actualidad, estos sistemas se están sustituyendo por sistemas de
representación en pantallas LCD o TRC.
Existen diferentes técnicas para registrar esta actividad eléctrica, entre ellas cabe citar:

1. Electrocardiograma.
2. Vector cardiograma.
3. Magneto cardiograma.

190
6.9.4.1. Electrocardiograma.

El electrocardiograma (ECG) es el registro de la actividad eléctrica del corazón medida


normalmente entre dos puntos de la superficie del cuerpo. Al ser la actividad de las
cámaras cardíacas rítmica y totalmente coordinada, la forma de onda obtenida es
regular. En ella se reconocen fácilmente diversas ondas cuyas amplitudes, duraciones y
morfología están bien definidas.

El equipo que capta la señal del ECG se denomina electrocardiógrafo. La corriente


eléctrica generada por el corazón se conduce a través de cables al aparato de registro,
que consta fundamentalmente de un amplificador, que magnifica las señales eléctricas, y
de un galvanómetro, que mueve una aguja inscriptora, la cual se desplaza más o menos,
según la magnitud del potencial eléctrico que genera el paciente (Figura 6.33). Este
potencial eléctrico tiene una expresión vectorial. La aguja inscribe una deflexión positiva
o negativa según que, en una derivación dada, la cabeza del vector (que corresponde a
la carga positiva del dipolo) este enfrentada con el electrodo explorador,
independientemente de que la fuerza eléctrica se acerque o se aleje del polo positivo de
dicha derivación.

Figura 6.33. Elementos de un electrocardiógrafo.

El ECG se emplea como señal para el diagnóstico (no solamente cardíaco), como
referencia temporal en el registro de otras señales (por ejemplo, en fonocardiografía y
para monitorización). En los dos primeros casos, el instrumento de medida debe poder
obtener un registro gráfico, mientras que en el tercero basta la presentación continua,
normalmente en la pantalla de un tubo de rayos catódicos.
191
Los parámetros considerados para analizar la señal, normalmente de forma empírica,
son el ritmo y su uniformidad, y la presencia, amplitud, forma y separación de las
distintas ondas. Las amplitudes están asociadas directamente al estado de las células
del miocardio, mientras que los tiempos vienen condicionados por las células nerviosas.
Es, pues, muy importante no alterar los parámetros durante la medida ya que, de lo
contrario, se pueden producir errores de interpretación.

La experiencia adquirida en el registro del ECG ha permitido establecer unos requisitos


mínimos que deben cumplir los electrocardiógrafos. De entre los recomendados por la
American Heart Association se pueden señalar entre otros: impedancia de entrada
mayor de 5 MW; corriente a través del paciente inferior a 1 mA; resistencia del terminal
central mayor de 3,3 MW; ganancia con tres valores fijos en 5, 10 y 20 mm/mV
(equivalen a ganancias en tensión de 1000 o superiores); respuesta frecuencial plana,
dentro de una banda de +0,5 dB, de 0,14 Hz a 25 Hz, y con atenuación inferior a 3 dB a
100 Hz; velocidad del papel 25 mm/s y adicional de 50 mm/s. Se recomienda también
que se pueda aplicar una señal de 1 mV a la entrada para calibrar la ganancia.

Para el registro de las doce derivaciones habituales, se mide una derivación cada vez, o
bien, se hace de tres en tres si se dispone de este número de canales de registro. El
equipo incorpora para ello un conmutador de selección. La conexión al paciente se hace
mediante 5 o 10 hilos de color distinto, conectado cada uno a un electrodo: tres para las
derivaciones a las extremidades, uno o seis para las derivaciones precordiales, y otro
para un electrodo de referencia, conectado en la pierna derecha u otro punto del cuerpo.

El diagrama de bloques general para un electrocardiógrafo consta de varias etapas


(Figura 6.34). Hay una etapa de entrada que incluye filtros de radiofrecuencia, para
evitar daños al paciente y al equipo si se emplea simultáneamente un electrobisturí, y
filtros de protección frente a sobretensiones. En una etapa posterior se dispone la red
resistiva para crear el terminal central de Wilson; para evitar errores debidos a la distinta
impedancia de cada electrodo y efectos de carga, se puede conectar cada electrodo a
un amplificador separador previo a la suma. La siguiente etapa es la de selección de
derivaciones y de la señal de calibración. Para obtener la máxima seguridad eléctrica,
hay que evitar que el paciente quede conectado a masa. Para que esté flotante respecto
a ésta, el terminal de referencia de los circuitos de entrada debe estar aislado de masa.
Este aislamiento se consigue alimentando dichos circuitos con una tensión obtenida
mediante un transformador de seguridad. A la vez, las órdenes que se dan desde el
panel frontal y las señales a registrar no deben establecer una continuidad 6hmica entre
la parte inmediata al paciente y el resto del equipo. Por ello se acoplan magnética u
ópticamente, y deben sufrir un proceso de modulación, y la consiguiente demodulación,
si su frecuencia, o amplitud, no es adecuada para la técnica de aislamiento empleada.
Las limitaciones del ECG clásico (en reposo) en cuanto a la capacidad de detectar
ciertas cardiopatías o diferenciarlas de otras, han llevado al planteamiento de métodos
alternativos. Uno muy extendido es la electrocardiografía durante ejercicio
(electrocardiograma de esfuerzo). En ella se observa y se registra el ECG mientras el
paciente camina sobre una cinta móvil o pedalea en un ergonómetro de bicicleta.

192
Figura 6.34. Esquema de un preamplificador de electrocardiograma (ECG).

CAPÍTULO 7.

ELECTROENCEFALOGRAFÍA.

Introducción.
193
La Electroencefalografía es el registro y evaluación de los potenciales eléctricos
generados por el cerebro y obtenidos por medio de electrodos situados sobre la
superficie del cuero cabelludo.

El electroencefalograma (EEG) es el registro de la actividad eléctrica de las neuronas del


encéfalo. Dicho registro posee formas muy complejas que varían mucho con la
localización de los electrodos y entre individuos. Esto es debido al gran número de
interconexiones que presentan las neuronas y por la estructura no uniforme del encéfalo

7.1. Estudio y anatomía del encéfalo.

El encéfalo, contenido en el cráneo, es la parte más voluminosa del sistema nervioso


central (SNC), que continúa en la médula espinal, contenida en la columna vertebral, y
en los nervios sensitivos y motores que llevan, respectivamente, información sensorial al
encéfalo y el control de la musculatura del esqueleto.

El encéfalo se divide en las siguientes partes (Figura 7.1):

 Tallo cerebral.
 Cerebelo.
 Cerebro.

El tallo cerebral es la parte evolutivamente más antigua del encéfalo; conecta entre sí el
córtex cerebral, la médula espinal y el cerebelo; controla asimismo los ritmos cardíaco y
respiratorio, y es el centro de diversos reflejos motores.

El cerebelo es el coordinador de los movimientos voluntarios, además de mantener el


equilibrio. Además, realiza una función de filtro paso bajo para alisar lo que de otro modo
serían movimientos musculares espasmódicos.

El cerebro es la parte más evolucionada del encéfalo y en él están localizadas las


funciones conscientes del sistema nervioso. Posee dos partes llamadas hemisferios que
se relacionan con las partes opuestas del cuerpo. La superficie externa del hemisferio se
conoce por córtex y en ella se recibe la información sensorial. Las capas más profundas
están formadas por axones y núcleos de células.

194
Figura 7.1. Vista lateral izquierda del encéfalo y tronco del encéfalo.

La subdivisión más importante del encéfalo es la corteza cerebral que contiene unos 9
de los 12 billones de neuronas que hay en el cerebro humano. La corteza es en realidad
una capa más bien fina de neuronas situada en la periferia del cerebro que contiene
muchas fisuras o pliegues entrantes para dar una mayor área superficial. Algunas de las
fisuras más profundas, llamadas también surcos se utilizan como límites para dividir la
corteza en ciertos lóbulos. En la figura 7.3 se muestran varias de las más prominentes,
junto con la situación de los lóbulos más importantes.

195
Figura 7.2. Vista lateral de la sección media del encéfalo y tronco del encéfalo.

Todas las entradas sensoriales alcanzan con el tiempo la corteza cerebral donde ciertas
regiones parecen estar relacionadas específicamente, con ciertas modalidades de
196
información sensitiva. Otras regiones de la corteza parecen estar relacionadas
específicamente con las funciones motoras. Por ejemplo, todas las entradas sensoriales
somáticas (calor, frío, presión, tacto, etc.) llegan a una región de la superficie cortical
justo por detrás del surco central, abarcando la parte delantera del lóbulo parietal. Las
entradas sensoriales somáticas de cada punto del organismo 11evan a una parte
específica de esta región, estando las entradas procedentes de las piernas y los pies
más cerca de la parte superior, a continuación, el torso, seguido de brazos, manos,
dedos, cara, lengua, faringe y finalmente las regiones intra-abdominales en la parte
inferior. La cantidad de superficie adjudicada a cada parte del organismo es proporcional
al número de nervios sensitivos que contiene y no a su tamaño físico real. Una
representación gráfica de la disposición de estas áreas, denominada homúnculo parece
una figura humana grotesca, cabeza abajo, con grandes dedos, cara, labios y lengua.

Figura 7.3. La corteza cerebral.

Justo delante del surco central esté del lóbulo frontal, donde se encuentran las
principales neuronas motoras que van a los distintos músculos del cuerpo. Las neuronas
motoras también están distribuidas en la superficie de la corteza de una forma similar a
las neuronas sensitivas. La situación de las distintas funciones motoras también se
197
puede representar con un homúnculo igualmente boca abajo, pero proporcionado según
el grado de control muscular ofrecido por cada parte del organismo.

La Figura 7.4 muestra el homúnculo sensor y e1 homúnculo motor, que representan la


distribución espacial en la superficie cortical de las funciones sensitivas y motoras. En
cada caso, en la figura se muestra sólo la mitad del cerebro seccionado
transversalmente por la región indicada.

Figura 7.4. Homúnculos humanos sensitivo y motor.

La parte delantera del cerebro llamada a veces lóbulo pre frontal, contiene neuronas
para algunas funciones de control motor especiales, incluyendo el control de movimiento
de los ojos.

El lóbulo occipital está muy hacia atrás de la cabeza, sobre el cerebelo. El lóbulo
occipital contiene la corteza visual donde se proyectan en una representación geográfica
las formas obtenidas en la retina.

La entrada sensitiva auditiva se puede seguir hasta los lóbulos temporales de la corteza,
situados justo por encima de los oídos. Las neuronas que responden a las distintas
frecuencias de la entrada de sonido se encuentran dispersas por toda la región, estando
situadas las frecuencias más altas hacia la parte delantera y las más bajas hacia la parte
trasera.
198
El olfato y el gusto no tienen situaciones específicas sobre la corteza cerebral, aunque
en la percepción del olor interviene un bulbo cercano al centro del cerebro.

La corteza cerebral tiene muchas áreas que no son ni sensitivas ni motoras. En el


hombre, esto sucede en la mayor parte de la corteza. Muchos científicos creen que
estas áreas, denominadas áreas de asociación están involucradas en la integración o
asociación de las distintas entradas para producir las respuestas de salida apropiadas y
transmitirlas a las neuronas motoras para controlar el organismo.

7.1.1. Electrogénesis cerebral.

El tejido nervioso presenta como una de sus funciones básicas la capacidad de generar
potenciales eléctricos que son la base de la excitabilidad del organismo. Para
comprender la forma en que se generan estos potenciales es preciso un conocimiento
de la estructura y las conexiones de aquellas partes del cerebro que los originan. En
rigor, todo el sistema nervioso posee capacidad electrogénica. Sin embargo, para los
propósitos del EEG bastará con considerar la corteza cerebral y las regiones
directamente relacionadas con ella.

Histológicamente, la neocorteza está constituida por seis capas celulares (Figura 7.5):

I: Capa superficial plexiforme de pequeñas células.


II: Capa de células granulares III.
III: Capa de células piramidales.
IV: Capa de células granulares.
V: Capa de células piramidales.
VI: Capa profunda polimorfa.

Las células de las capas III y V son efectoras.


Las células de las capas II y IV son receptoras.

199
Figura 7.5. Sección de la corteza parietal mostrando las seis capas histológicas.

7.1.2. Electrogénesis cortical.

200
Un fragmento de tejido cortical aislado es asiento de actividad eléctrica espontánea. Esta
actividad se caracteriza por salvas de ondas lentas sobre las que se superponen ritmos
rápidos. Entre una salva y otra aparecen períodos de silencio eléctrico.

Estas señales son producidas como consecuencia de la actividad sináptica general de


regiones discretas de tejido: los PPSE (potenciales postsinápticos excitadores) y los
PPSI (potenciales postsinápticos inhibidores) se suman entre si y dan origen a
potenciales lentos que son las ondas registradas. Una de estas porciones de tejido
capaz de producir actividad eléctrica se llama un Generador.

Se han puesto de manifiesto tres generadores corticales:

Generador A: Situado a unas 500 micras de la superficie cortical está producido por la
despolarización de las dendritas apicales de las células piramidales. Su actividad
produce ondas negativas en la superficie de la corteza. No tiene relación con la
descarga de potenciales de acción de las células.

Generador B: Situado a 900 micras de profundidad está formado por las


despolarizaciones de los somas de las células piramidales. Produce ondas positivas en
la superficie cortical y su actividad coincide con la aparición de potenciales de acción en
þ las células.

Generador C: Está situado también a 900 micras, pero su actividad determina ondas
negativas en la superficie cortical y es el resultado de la hiperpolarización de las células.
Su actividad coincide con una interrupción de la descarga de potenciales de acción en
las células piramidales.

De forma general, una tensión positiva en la superficie cortical traduce una


despolarización en las capas más profundas de la corteza. En cambio, una tensión
negativa puede ser el resultado, bien de una despolarización superficial, o de una
hiperpolarización profunda.

7.1.3. Sincronización de la actividad celular.

De lo dicho anteriormente, las señales corticales son consecuencia de la actividad


neuronal. Sin embargo, dado que en un registro normal se recoge la actividad de
muchos miles de neuronas, para poder conseguir una actividad global mínima es preciso
que las neuronas vecinas se encuentren sincronizadas. Cuando así ocurre, se pueden
observar ondas tanto mayores y tanto más lentas, cuanta mayor sea la sincronía de los
generadores.

La sincronización se encuentra bajo control de estructuras subcorticales,


fundamentalmente ciertos núcleos talámicos que actúan como los marcapasos
sincronizadores de las actividades rítmicas corticales. Por el contrario, otras regiones
más caudales que van desde el hipotálamo hasta la porción rostral del bulbo constituyen
estructuras desincronizadoras.

201
7.2. Captación del EEG.

La actividad bioeléctrica cerebral puede captarse por diversos procedimientos:


 Sobre el cuero cabelludo.
 En la base del cráneo.
 En cerebro expuesto.
 En localizaciones cerebrales profundas.

Para captar la señal se utilizan diferentes tipos de electrodos:

 Electrodos superficiales: Se aplican sobre el cuero cabelludo.


 Electrodos basales: Se aplican en la base del cráneo sin necesidad de
procedimiento quirúrgico.
 Electrodos quirúrgicos: para su aplicación es precisa la cirugía y pueden ser
corticales o intracerebrales.

El registro de la actividad bioeléctrica cerebral recibe distintos nombres según la forma


de captación:

 Electroencefalograma (EEG): cuando se utilizan electrodos de superficie o basales.


 Electrocorticograma (ECOG): si se utilizan electrodos quirúrgicos en la superficie
de la corteza.
 Estereo Electroencefalograma (E-EEG): cuando se utilizan electrodos quirúrgicos
de aplicación profunda.

7.2.1. Tipos de electrodos.

7.2.1.1. Superficiales.

 Adheridos. Son pequeños discos metálicos de 5 mm de diámetro. Se adhieren con


pasta conductora y se fijan con colodión que es aislante. Aplicados correctamente
dan resistencias de contacto muy bajas (1 a 2 kilo ohmios).

 De contacto. Consisten en pequeños tubos de plata clorurada roscados a soportes


de plástico. En su extremo de contacto se colocan una almohadilla que se
humedece con solución conductora. Se sujetan al cráneo con bandas elásticas y se
conectan con pinzas de cocodrilo. Son de colocación muy fácil, pero incómodos
para el paciente. Por esto no permiten registros de larga duración (Figura 7.6).

202
Figura 7.6. A. Esquema de un electrodo de contacto. B. Colocación de los electrodos de
contacto.

 En casco de malla (Figura 7.7). De introducción reciente. Los electrodos están


incluidos en una especie de casco elástico. Existen cascos de diferentes tamaños,
dependiendo de la talla del paciente. Se sujetan con cintas a una banda torácica.
Como características más importantes presentan la comodidad de colocación, la
comodidad para el paciente en registros de larga duración, su gran inmunidad a los
artefactos y la precisión de su colocación, lo que los hace muy útiles en estudios
comparativos, aunque para sacar provecho de esta característica es precisa una
técnica muy depurada.

Figura 7.7. Principio de colocación de electrodos en casco de malla.

 De aguja. Su uso es muy limitado; solo se emplea en recién nacidos y en UCI.


Pueden ser desechables (de un solo uso) o de uso múltiple. En este caso, su
esterilización y manipulación deben ser muy cuidadosos. Todos los electrodos
descritos hasta aquí registran solamente la convexidad superior de la corteza. Para

203
el estudio de la cara basal del encéfalo se utilizan electrodos especiales como el
faríngeo, el esfenoidal, y el timpánico.

 Quirúrgicos. Se utilizan durante el acto quirúrgico y son manipulados


exclusivamente por el neurocirujano. Pueden ser durales, corticales o
intracerebrales.

7.2.2. Sistemas de posicionamiento de los electrodos superficiales.

Aunque hay varios sistemas diferentes (Illinois, Montreal, Aird, Cohn, Lennox, Merlis,
Oastaut, Schwab, Marshall), el sistema internacional Diez-Veinte es el más utilizado en
el momento actual. Para situar los electrodos según este sistema se procede de la forma
siguiente:

 Se mide la distancia entre el nasión y el inión pasando por el vertex. El 10% de esta
distancia sobre el nasión señala el punto Fp (Frontal Polar). El 10% de esta
distancia sobre el anión señala el punto O (Occipital) (Figura 7.8).

Figura 7.8. A. Vista de perfil. B. Vista superior. Fp, punto frontal polar; O, punto occipital.

 Entre los puntos FP y O se sitúan otros tres puntos espaciados a intervalos iguales
(entre cada dos el 20/o de la distancia nasion-inion). Estos tres puntos son, de
delante hacia atrás, el Fz (Frontal) el Cz (Central o Vertex) y el Pz (Parietal). No
deben confundirse Fz, Cz o Pz cuyos subíndices significan cero (zero en inglés)
con la letra O referente a los electrodos occipitales (Figura 7.9).

204
Figura 7.9. A. Vista perfil. B. Vista superior. Fz, punto frontal; cz, punto central; Pz,
punto parietal.

 Se mide la distancia entre los puntos preauriculares (situados por delante del
pabellón auditivo) pasando por el vertex (Cz). El 10% de esta distancia marca la
posición de los puntos temporales mediales, T3 (izquierdo) y T4 (derecho) (Figura
7.10).

Figura 7.10. Medición coronal lateral. A. Vista frontal. B. Vista superior. Situación
de los electrodos T3 y T4.

205
 Un 20% de la medida por encima de los puntos temporales medios se colocan los
electrodos C3 (izquierda) y C4 (derecha). El vertex es ahora el punto de
intersección entre la línea anteroposterior y la línea coronal lateral (Figura 7.11).

Figura 7.11. A. Vista de frente. B. Vista superior. Situación de los electrodos C3 y C4.

 Los electrodos F3 y F4 (Izquierda y derecha, respectivamente) están situados de


forma equidistante entre el punto frontal medio (Fz) y la línea de electrodos
temporales (Figura 7.12).

Figura 7.12. A. Vista de perfil. B. Vista superior. Situación de los electrodos F3 y F4.
 Los electrodos P3 y P4 (izquierda y derecha, respectivamente) equidistan entre el
punto P medio y la línea de los electrodos temporales (Figura 7.13).
206
Figura 7.13. A. Vista de perfil. B. Vista superior. Situación de los electrodos P3 y P4.
 Se mide la distancia entre el punto medio Fp y el punto medio O a través de T3. El
10% de esta distancia a través de Fp corresponde a los electrodos FP1 y FP2. El
10% de esta distancia a través de O corresponde a los electrodos O1 y O2.

El electrodo F7 (y el F8) se sitúa equidistante entre los puntos FP1 (ó FP2) y entre T3 (ó
T4).

El electrodo T5 (y el T6) se sitúa en la línea media entre T3 (ó T4) y O1 (ó O2) (Figura


7.14).

207
Figura 7.14. A. Vista de perfil. B. Vista superior. Situación de los electrodos F7, F8, T5,
T6, FP1, P2, O1 y O2.

 A un 10% de los temporales T3 y T4 se sitúan los electrodos auriculares Al y A2


respectivamente (Figura 7.15).

208
Figura 7.15. A. Vista de perfil. B. Vista superior. Situación de los electrodos A1 y A2.

Como regla general, los electrodos del lado izquierdo llevan numeración impar mientras
que los del lado derecho la llevan par. Además, como ya se dijo, los electrodos de la
línea media reciben el subíndice z (por zero, cero en inglés).

 La versión europea del sistema presenta ligeras variaciones (Figura 7.16): Los
electrodos temporales mediales, llamados T3 y T4 se representan como Tm
(temporal medial). Paralelamente, los electrodos F7 y F8, T5 y T6 son
denominados como temporales anteriores Ta (F7 y F8) y temporales posteriores Tp
(T5 y T6). Es decir que la versión europea considera los frontales superiores F7 y
F8 como temporales anteriores, habiendo así una pequeña diferencia de posición.
Los electrodos F3 y F4 son representados como Fs (frontales superiores) y los P3 y
P4 como P (parietales). Finalmente, los centrales C3 y C4 son representados como
CI y CD.

Además, la versión europea considera dos electrodos más, los mastoideos, colocados
junto a las apófisis mastoideas (M).

209
Figura 7.16. Sistema de colocación de electrodos según versión europea. A. Vista de
perfil. B. Vista superior.

7.3. Montajes de un EEG

Para proceder a registrar el EEG se parte de una serie de electrodos situados sobre la
superficie del cuero cabelludo en situaciones precisas, tal como ya se ha explicado,
determinadas según el sistema internacional diez-veinte. Cada electrodo es un punto de
registro. Sin embargo, para poder realizar este registro es preciso disponer de dos
terminales. Por esto habrá que seleccionar cuáles de los electrodos deben ser la fuente
de señal registrada en el electroencefalógrafo, dependiendo del número de canales
disponibles y del propósito específico del registro a realizar. En este aspecto, la primera
decisión que se deberá tomar será el seleccionar entre Registros Monopolares y
Registros Bipolares.

En los Registros Monopolares o Referenciales (Figura 7.17) se toma la señal de cada


uno de los electrodos independientemente de la de los demás. En esta situación el
electrodo de registro de llama electrodo activo y el segundo cable de entrada al equipo
se toma de un electrodo llamado de Referencia.

210
Figura 7.17. Esquema que representa el montaje para un registro monopolar.

Teóricamente este electrodo debe estar situado a potencial cero, aunque esto en la
práctica real nunca hay seguridad de que sea posible de conseguir. Por esto se emplean
referencias aproximadas como son el uso de electrodos en el lóbulo de la oreja, en el
mentón o en el mastoides. Otra forma de conseguir un electrodo referencial consiste en
reunir todos los demás electrodos entre sí, con lo cual tendremos un punto cuyo
potencial será la suma de los potenciales de cada uno de ellos dependiendo del número
de canales disponibles.

211
Figura 7.18. Esquema del sistema Wilson en el registro del EEG (véase explicación en el
texto). E1-E8, electrodos; A, amplificador.

Presumiblemente, esta suma será cero, con lo que se tendrá ya el punto que se
buscaba. Pero con esto, solo se podría registrar la actividad de un electrodo cada vez,
ya que todos los demás estarían cortocircuitados entre sí. Para evitar este problema, la
interconexión entre todos se realiza por medio de resistencias de valor moderadamente
bajo (entre 1 y 1.5 Mohmios). Este es el llamado sistema Wilson (Figura 7.18) y con él se
pueden tomar tantos pares referencial-activo como se desee, por supuesto,
dependiendo del número de canales disponibles en el equipo.

Existen otros tipos de referencia diferentes que se utilizan, por ejemplo, para reducir
algunas interferencias particulares. Por ejemplo, para reducir los artefactos debidos al
electrocardiograma, muy corrientes en los registros referenciales, se disponen dos o
más electrodos en lugares próximos al corazón (fuera del cráneo) y se unen entre sí. De
esta forma en ellos se cortocircuita la señal electrocardiográfica con lo que ésta se
atenúa en gran medida. Incluso es posible balancear, por medio de un mando adecuado,
el punto de referencia virtual formado con estos electrodos para asegurar una
atenuación más completa de la señal ECG indeseada.

En los Registros Bipolares se toman parejas de electrodos, dos a dos y se registran las
diferencias de tensión entre cada par de puntos (Figura 7.19). Los dos electrodos de
cada pareja son activos.
212
Figura 7.19. Esquema de un montaje para un registro bipolar. El electrodo a está a un
potencial de +5, el electrodo b a un potencial de +2, registrándose así un potencial de
(+5) – (+2) = +3.

De acuerdo con lo anterior es posible realizar un número enorme de registros bipolares


diferentes, tantos como parejas diferentes de electrodo, tomadas en grupos de 8, de 12,
de 16, (según el número de canales disponibles para registro simultáneo). Por supuesto,
este número de combinaciones es enorme y, por otra parte, muchas de las
combinaciones posibles no rendirían información de interés. Por esta razón es preciso
seleccionar, de entre todas las posibles, las combinaciones más interesantes. Cada una
de las combinaciones seleccionadas se llama un Montaje.
Se utilizan Montajes a Largas Distancias, cuando se registra entre electrodos no
contiguos. Por el contrario, en los Montajes a Distancias Cortas se hacen registros entre
electrodos vecinos.

213
Por otra parte, los montajes también han sido clasificados por la Federación
Internacional de EEG y Neurofisiología en Longitudinales y Transversales.

En los Montajes Longitudinales se registra la actividad de pares de electrodos


dispuestos en sentido anteroposterior de cada mitad del cráneo. En los Montajes
Transversales se realizan registros de pares de electrodos dispuestos transversalmente
según los planos sagitales anteriores, medio o posterior (Figura 7.20).

Figura 7.20. Esquema de un montaje A. longitudinal bipolar, B. transversal bipolar. Cada


segmento situado entre dos puntos representa un canal de registro.

Además, de estos montajes, existen otros muy usados, como las Zetas del Standard
Cero, o las triangulaciones, pero no están normalizados por la Federación Internacional.

7.4. Ondas del EEG.

Poseen amplitudes que van desde los 10 mV en registros sobre el córtex, a 100 mV en
la superficie del cuero cabelludo. Las frecuencias de estas ondas se mueven entre 0,5 y
100 Hz y dependen mucho del grado de actividad del córtex cerebral. La mayoría de las
veces estas ondas no poseen ninguna forma determinada, en algunas son ritmos
normales que suelen clasificarse en ritmos a, b, q y d. En otras poseen características
muy específicas de patologías cerebrales como la epilepsia (Figura 7.21).

214
Figura 7.21.- Ritmos normales en electroencefalografía.

Las ondas a poseen frecuencias entre 8 y 13 Hz. Se registran en sujetos normales


despiertos, sin ninguna actividad y con los ojos cerrados, localizándose sobre todo en la
zona occipital; su amplitud está comprendida entre 20 y 200 mV.

Las ondas b poseen frecuencias entre 14 y 30 Hz, aunque pueden llegar hasta los 50
Hz; se registran fundamentalmente en las regiones parietal y frontal. Se dividen en dos
tipos fundamentales, de comportamiento muy distinto, b1 y b2. Las ondas b1, tienen una
frecuencia doble a las ondas b2 y se comportan de forma parecida a ellas. Las ondas

215
b2, aparecen cuando se activa intensamente el SNC o cuando el sujeto está bajo
tensión.

Las ondas q poseen frecuencias entre 4 y 7 Hz y se presentan en la infancia aunque


también pueden presentarlas los adultos en períodos de stress emocional y frustración.
Se localizan en las zonas parietal y temporal.

Las ondas d poseen frecuencias inferiores a 3,5 Hz y se presentan durante el sueño


profundo, en la infancia y en enfermedades orgánicas cerebrales graves.

Hemos visto cómo la actividad cerebral durante la vigilia modifica sustancialmente el


EEG. Algo parecido ocurre durante el sueño, en el que tienen lugar de forma cíclica
cambios espectrales muy notables, pudiendo ser cualquier desviaci6n indicativa de una
patología cerebral. En la Figura 7.22 se distinguen distintas fases del sueño que
corresponden sucesivamente a los estados de alerta o excitación, de relajación, de
somnolencia, de sueño y, finalmente, de sueño profundo. Obsérvese que la frecuencia
de las ondas del EEG va disminuyendo progresivamente, aunque pueden aparecer
ondas transitorias rápidas (puntas, ondas V y complejos K). Además del EEG se suelen
registrar conjuntamente otras variables fisiológicas como el EOG (electrooculograma), el
ECG (electrocardiograma), el EMG (electromiograma) y la frecuencia respiratoria, que
ayudan a determinar la profundidad del sueño del sujeto en observación. Así, por
ejemplo, el EOG permite determinar las fases REM (rapid eye movement) del sueño, el
EMG el grado de relajación muscular.

216
Figura 7.22. EEG durante distintas fases del sueño.

Por último, señalaremos que las distintas fases del sueño se suelen repetir de forma
cíclica durante la noche. Uno de los usos fundamentales del EEG está en el diagnóstico
y localización de la epilepsia, que tiene su origen en una activación excesiva de parte o
de todo el SNC. Existen tres grupos básicos de epilepsia: la epilepsia generalizada –
que abarca todo el cerebro –, la parcial – que sólo lo hace en parte – y la de difícil
clasificación – que no corresponde a ninguno de los tipos anteriores.

Algunos ejemplos de crisis más frecuentes que presentan sujetos con epilepsia
generalizada son las crisis tónico- clónicas (grand mal), las crisis mioclónicas y las crisis
de ausencia. Las crisis tónico-clónicas parecen tener origen en la hiperexcitabilidad o
anormalidad de las neuronas del sistema de activaci6n reticular. Las descargas se
expanden por todo el sistema nervioso dando lugar a convulsiones del cuerpo entero
que dura desde algunos segundos hasta 3 o 4 minutos.

217
Después del ataque el sujeto puede permanecer inconsciente bastantes minutos (hasta
una hora). El EEG presenta, en la fase tónica, ondas de frecuencia igual a las ondas a
pero de mayor amplitud y registrables desde cualquier punto del córtex (Figura 7.23b).

Figura 7.23. EEG correspondiente a distintos tipos de epilepsia.

218
CAPÍTULO 8.

ELECTROMIOGRAFÍA.

Introducción.

Es el estudio de la actividad eléctrica de los músculos del esqueleto. Proporciona


información muy útil sobre su estado fisiológico y el de los nervios que los activan.
Permite la localización, en el caso, por ejemplo, de parálisis musculares, del lugar de la
lesión, que puede estar en el encéfalo, la médula espinal, el axón, la unión
neuromuscular o las propias fibras musculares. El primer estudio en profundidad del
electromiograma (EMG) fue llevado a cabo por Piper en 1912, quien registró potenciales
durante la contracción voluntaria empleando electrodos de superficie y un galvanómetro
de hilo. Posteriormente, en 1929, Adrian y Broke introdujeron el electrodo concéntrico de
aguja que hizo posible, conjuntamente con el osciloscopio de rayos catódicos y los
amplificadores electrónicos, el estudio de potenciales de acción de unidades motrices y
de fibras únicas.

8.1. Fundamentos fisiológicos.

La membrana de las células excitables se encuentra polarizada, siendo el interior de la


célula negativo con respecto al exterior. En la célula muscular, con un electrodo situado
en el interior de la fibra y otro en el exterior se puede detectar una diferencia de potencial
de reposo de unos 90 mv. Este potencial es producido por diferencias existentes en la
concentración de diversos iones (Na+, K+, Ca++, Cl). Además, obedeciendo a señales
procedentes de otras células, la fibra muscular puede sufrir despolarizaciones
transitorias (potenciales de acción) que determinan la actividad de la maquinaria
contráctil de la fibra. En el músculo podemos distinguir dos tipos de unidades, las
anatómicas y las funcionales. La unidad anatómica es la llamada fibra muscular y la
unidad funcional es la unidad motora. Una unidad motora es un grupo de fibras
musculares inervado por una única motoneurona de la médula espinal o de un núcleo
motor del tallo cerebral. Este concepto fue introducido por Liddell y Sherrington y
comprende una motoneurona, su axón, las ramificaciones de éste y el conjunto de fibras
musculares sobre los que estos hacen contacto sináptico. Si la motoneurona sufre una
despolarización, ésta recorre todo el axón hasta las terminaciones sinápticas y provoca
la despolarización, casi sincrónica, en todo el conjunto de fibras musculares de la unidad
motora.

La unidad contráctil de la musculatura del esqueleto es la fibra muscular, que es una


célula cilíndrica de unos 50 mm de diámetro, que al ser estimulada se contrae
desarrollando fuerza. Un músculo consiste en haces paralelos de fibras musculares. La
activación de cada fibra muscular se hace a través del axón de la fibra nerviosa motriz
que la inerva. Según la posición y la función del músculo, el número de fibras
musculares inervadas por un mismo axón puede variar entre uno o más de mil. El
conjunto formado por la célula nerviosa motriz en la espina dorsal, su axón y las fibras

219
musculares que éste inerva constituye la unidad funcional básica del sistema muscular y
se conoce por unidad motora, UM (Figura 8.1). Cuando el potencial de acción del nervio
alcanza el punto en el que éste se une con el músculo, se libera una cierta cantidad de
un transmisor químico (la acetilcolina) que origina la despolarización local de la
membrana de la fibra muscular. El transmisor es rápidamente neutralizado por una
sustancia denominada estereato de acetilcolina, quedando la unión mioneuronal libre
para una nueva excitación. Al potencial complejo que originan las fibras de una UM se le
conoce por potencial de la unidad motriz (PUM) y es la suma de los potenciales de
acción de las distintas fibras de la UM (potenciales de acción cuasi-sincrónicos en UM
normales).

Figura 8.1. Diagrama de una unidad motora.

Con todo esto, un músculo puede considerarse como un conjunto de unidades motoras
dispuestas en paralelo, entre las cuales se encuentran otras fibras musculares
modificadas llamadas Husos Musculares que contienen elementos sensoriales que
perciben las tracciones en el músculo y sirven para el servocontrol de la posición del
músculo (Figura 8.2). El significado de una orden de excitación dirigida a un músculo es
que un número mayor o menor de unidades motoras recibirán una orden de
despolarización. Una orden motora puede ser mínima, si solo ordena actividad a una
única unidad motora, o máxima, si ordena la contracción completa del músculo. La
actividad de una unidad motora es el elemento individualizable mínimo de la contracción
muscular. En el electromiograma (EMG) se registra la actividad del músculo y en él se
puede distinguir la activación de sus unidades motoras, las variaciones características
de estas activaciones y las relaciones de unas unidades con otras.

220
Figura 8.2. Segmento de un haz de fibrillas musculares mostrando un huso con la
terminación sensitiva anulo- espinal.

Se comprende que el número de fibras musculares que contiene cada unidad motora
determina la finura o la delicadeza de los movimientos que puede ejecutar. Este número
de unidades recibe el nombre de tasa de inervación y cuanto menor sea, es decir,
muchas motoneuronas y pocas fibras musculares, más flexibilidad motora tendrá el
músculo. Por lo tanto, la fuerza de la contracción muscular se gradúa controlando el
número de axones que se estimulan y la frecuencia de estimulación de cada axón.

Cada unidad motora ocupa un espacio en el cual es posible registrar su actividad. Este
espacio es algo mayor que el que físicamente ocupa sus fibras. De hecho, las unidades
no se recogen unas junto a otras, ni hay una frontera definida entre ellas; por el
contrario, sus fibras o grupos de fibras se entrelazan con las de unidades vecinas de tal
forma que en una reducida sección transversal de músculo conviven varias unidades
motoras. En líneas generales, se puede afirmar que una unidad motora de un miembro
superior se corresponde con un área de unos 5 a 7 mm de radio. En los miembros
inferiores son 7 a 10 mm. Estos valores se han obtenido por medios electrofisiológicos.

8.2. Cualidades del valor diagnóstico del EMG.

La Electromiografía (EMG) y las pruebas de conducción nerviosa constituyen los


métodos de electro diagnóstico más útiles en el estudio de la función motriz. Su valor
diagnóstico presenta una serie de cualidades:

 Objetividad elevada, especialmente si se hace uso de las técnicas electromiográficas


de carácter cuantitativo.

 Precocidad en el diagnóstico. Se manifiesta tanto en el diagnóstico


anatomopatológico, señalando la magnitud de la lesión (compresión, sección afónica
sección de nervio), como en el diagnóstico topográfico, pudiendo, en muchas
ocasiones, concretar el lugar de la afección (médula, raíz anterior, plexos nerviosos,
troncos nerviosos).

221
 Rapidez en el pronóstico, dando cuenta de los primeros signos de regeneración
nerviosa antes de cualquier manifestación clínica.

8.3. Equipo instrumental. Características técnicas.

Un equipo de registro electromiográfico consta de los siguientes elementos:

A) Electrodos.

Recogen la actividad eléctrica del músculo, bien por inserción dentro del mismo o bien a
través de la piel que lo recubre, previo acoplamiento por medio de pasta conductora.

Una primera clasificación de electrodos para EMG puede ser entre electrodos profundos
o superficiales.

 Electrodos Superficiales. Son pequeños conos o discos metálicos (fabricados de


plata o acero inoxidable) que se adaptan íntimamente a la piel. Para reducir la
resistencia de contacto se utiliza pasta conductora o gel.

Con estos electrodos se puede obtener una idea de la electrogénesis global de


músculo (estudio de la respuesta global del músculo), pero no detectan
potenciales de baja amplitud o de elevada frecuencia por lo cual su uso se
encuentra bastante restringido en electromiografía; se emplean para la
determinación de latencias en las pruebas de conducción y en los estudios
cinesiológicos.

 Electrodos Profundos o de inserción (electrodos de aguja). Pueden ser de varias


clases:
 Monopolar: consiste en una aguja corriente cuya longitud total (excepto en la
punta) ha sido aislada (Figura 8.3). La variación de potencial se mide entre el
extremo de la punta, ubicada en el músculo y el electrodo de referencia
ubicado en la piel o tejido subcutáneo.
 Coaxial. Este fue introducido por Adrian en 1929 y es el más adecuado para la
práctica clínica. Consiste en una aguja hipodérmica a través de cuyo interior se
han insertado uno o varios conductores metálicos finos aislados entre sí y con
respecto a la aguja (Figura 8.3). Sólo el extremo de estos conductores se
encuentra desprovisto de aislamiento y es por este punto por el que se captura
la señal procedente del tejido muscular. En la actualidad cada vez se usa con
mayor frecuencia un electrodo coaxial multicanal en el cual hay 14
conductores. Con éste se puede determinar el territorio de la unidad motora.
Este territorio aumenta en los procesos patológicos de carácter neurógeno (en
los cuales hay lesión del nervio motor) y disminuye en las lesiones musculares.

222
Figura 8.3.- Esquema de los electrodos profundos.

B) Amplificadores.

Su finalidad es la de amplificar los diminutos potenciales recogidos en el músculo de tal


forma que puedan ser visualizados en la pantalla de un osciloscopio. El factor de
amplificación puede ser superior al millón de veces (60 dB), con lo cual es posible que
una señal de 5 micro voltios produzca una deflexión de 1 cm en el registro.

Dado que los potenciales electromiográficos presentan una banda de frecuencia muy
variable, el amplificador debe ser capaz de responder con fidelidad a señales
comprendidas entre los 40 y los 10 KHz.

Las principales características de los amplificadores utilizados en EMG son:

 Número de canales: 2 (lo más habitual).


 Sensibilidad: 1 pV/div. a 10 mV/div.
 Impedancia de entrada: 100 MW//47 pF.
 CMRR a 50 Hz > 100 dB.
 Filtro de paso alto: entre 0,5 Hz y 3 kHz (6 dB/octava). Filtro de paso bajo: entre 0,1
y 15 kHz
 (12 dB/octava). Ruido: (1 pV eficaz entre 2 Hz y 10 kHz con la entrada
cortocircuitada.

C) Sistemas de registro.

Se puede utilizar el registro gráfico en la pantalla de un tubo de rayos catódicos


(osciloscopio) o por algún medio de registro permanente. Muy corrientemente los dos
tipos de registro pueden ser usados simultáneamente. En el registro osciloscópico, la
223
señal se presenta sobre una pantalla fluorescente. Los potenciales se inscriben como
desplazamientos verticales de una línea que se mueve en sentido horizontal a velocidad
ajustable.

Los registros permanentes pueden realizarse sobre papel, por medio de plumillas y tinta
como en electroencefalografía, aunque este procedimiento ha caído en desuso; la
elevada inercia de las plumillas impide un registro fiel de ciertas formas de onda.

También pueden realizarse registros permanentes por medios fotográficos, sobre


soportes magnéticos, en tubos de rayos catódicos de memoria (digital o de persistencia)
y recientemente, el sistema de registro con impresora, del tipo de las empleadas en
ordenador.

D) Altavoz.

Constituye un elemento indispensable, tan útil para el registro como la pantalla o la


fotografía. A veces el oído proporciona una discriminación más fina que la visión de
potenciales rápidos por el osciloscopio. Algunas características del electromiograma
patológico, como las fibrilaciones o las salvas miotónicas, se perciben mejor
acústicamente que por visualización directa.

Todo el equipo necesario para la realización de los electromiogramas, estimuladores,


amplificadores, sistemas de registro, altavoz, suele estar integrado en un instrumento
compacto con una caja de entradas y salidas que suele ser independiente y estar
conectada al equipo por medio de un cable. Los equipos más sencillos tienen, como
mínimo dos canales y en la actualidad muestran amplia información de los resultados del
registro en la misma pantalla del oscilógrafo. Siempre es posible disparar el barrido
osciloscopio por medio del mismo estimulador con lo que se consigue un registro
estacionario que se inicia con el artefacto de estímulo y termina con el fin de la
respuesta registrada. Además, el equipo tiene mandos que permiten situar cursores en
diferentes puntos del registro. Con estos cursores el sistema entrega la información del
tiempo entre dos cursores situados horizontalmente o la amplitud, si se usan cursores
verticales. De esta forma pueden obtenerse los tiempos de latencia.

8.4. Potenciales característicos en EMG.

Son debidos a la actividad voluntaria o a la espontánea de los músculos. A continuación,


se muestran algunos ejemplos: La actividad de inserción es un tipo de actividad
espontánea que se origina al penetrar el electrodo en el músculo y que dura, en
personas sanas, un poco más que el movimiento del electrodo. En algunas personas
enfermas es fácilmente inducida, presentando una duración mayor y ondas puntiagudas
(Figura 8.4).
Los potenciales de fibrilación son de pequeña amplitud (30 a 50 pV) con una duración
entre 0,5 y 2 ms y con una frecuencia de repetición entre 2 y 10 por segundo. Pueden
ser bifásicos o trifásicos y son consecuencia de la contracción espontánea de las fibras

224
musculares. Son característicos de músculos en los que la continuidad entre el axón
motor y la fibra muscular se ha interrumpido.

Figura 8.4. Potenciales de inserción (a) y fibrilación (b) en un músculo parcialmente


denervado.

Las fasciculaciones son contracciones espontáneas de fibras musculares o unidades


motrices y son lo suficientemente potentes para producir una contracción visible del
músculo, pero sin que la articulación se mueva. Pueden presentarse en personas sanas
y en enfermedades degenerativas muy graves de las neuronas motrices, lo que hace
difícil el diagnóstico. Otros tipos de actividad espontánea son: la respuesta miotónica, los
calambres y los espasmos musculares.

Dentro de la actividad voluntaria, los potenciales de unidad motriz (PUM) son el objeto
principal de estudio. Consisten en la suma de distintos potenciales de acción de grupos
de fibras musculares que se están contrayendo casi sincronizadamente. Pueden ser
monofásicos, bifásicos o trifásicos y, en ocasiones, polifásicos con cinco o más fases. Su
duración está comprendida entre 2 y 15 ms y su amplitud entre 100 pV y 2 mV, aunque
estas magnitudes dependen mucho del tipo de electrodos empleado y del músculo
considerado (número de fibras de la UM) (Figura 8.5.a)

La forma y las dimensiones de los PUM pueden modificarse en gran medida en


personas enfermos: por ejemplo, en algunas nefropatías periféricas la duración de los
PUM aumenta, así como su número de fases (Figura 8.5.b).

El registro de los PUM se suele realizar contrayendo débilmente el músculo en


observación. Si la contracción se hace mucho más intensa, se obtiene lo que se conoce
por patrón de interferencia: los PUM se superponen siendo difícil distinguir sus
características individuales. El aspecto del registro se muestra en la Figura 8.5.c. Los
225
PUM y el patrón de interferencia constituyen los registros principales de la actividad
voluntaria.

Figura 8.5.a PUM de un sujeto normal; b. PUM polifásicos en una neuropatía periférica;
c. PUM de un sujeto normal al ir aumentando el nivel de contracción.

8.5. Aplicaciones clínicas.

La electromiografía es útil en el diagnóstico de las siguientes patologías:

a) Denervación:

La pérdida de continuidad entre un nervio y un músculo del esqueleto puede


detectarse mediante la electromiografía. La presencia de potenciales de fibrilación en
226
un músculo relajado puede ser una señal de denervación, aunque aquéllos no suelen
presentarse antes de tres semanas después de producirse la lesión. La
electromiografía permite conocer la extensión y, en muchos casos, la naturaleza de la
patología; además, durante la reinervación permite detectar PUM antes de que se
aprecie el movimiento voluntario.

b) Desórdenes de la neurona motriz:

Comprenden desde infecciones víricas agudas tales, como la poliomielitis, hasta


atrofias musculares de la espina dorsal de origen genético, pasando por lo que se
conoce como enfermedad de la neurona motriz, de tipo degenerativo. Todos ellos
presentan características comunes como excesiva actividad de inserción, fibrilación,
reducida actividad voluntaria, aunque con PUM de amplitudes y duraciones mayores
que las normales.

c) Neuropatías periféricas:

Se caracterizan por una reducción de la actividad de las UM hasta el punto de


perderse el patrón de interferencia, incluso durante un esfuerzo máximo. Los PUM
son, en general, polifásicos debido probablemente a las diferencias en velocidad de
conducción de las ramas que inervan las fibras de la UM. Las amplitudes y duraciones
son normales o ligeramente inferiores. La medida de la velocidad de conducción es de
gran ayuda en el estudio de las neuropatías periféricas, ya que los síntomas
anteriores los presentan también diversas miopatías. Algunos ejemplos son el
síndrome de Guillain-Barré, las neuropatías asociadas con la difteria o la diabetes y
las neuropatías de tipo nutricional o tóxico.

d) Bloqueo neuromuscular:

El ejemplo más característico lo tenemos en la miastenia grave. Las fibras musculares


están normalmente inervadas pero la transmisión de impulsos a través de la unión
mioneuronal se hace con mucha dificultad (las contracciones sólo pueden mantenerse
durante períodos cortos). La medida del «jitter» mediante electrodos de fibra única ha
demostrado su validez en el diagnóstico de la miastenia grave.

e) Enfermedades musculares:

Incluyen enfermedades tan diversas como las distrofias musculares, las miopatías
adquiridas, las miopatías de tipo endocrino y un grupo diverso de desórdenes de
origen congénito. Los registros electromiográficos suelen mostrar anormalidades en
las características de los PUM (polifases), aunque el número de UM activadas suele
ser normal.

227
8.5.1. Electromiograma normal.

La inserción del electrodo y posterior registro en el interior de la masa muscular permite


observar en el osciloscopio breves descargas de pequeños potenciales, que persisten
algo más que el movimiento de implantación, y cuyo origen probable es la irritación
mecánica de las fibras musculares por el desplazamiento de la aguja. Una vez disipadas
las ráfagas de inserción y estando el músculo en completa relajación, no hay que
observar registro de ninguna actividad en un electromiograma normal, visualizándose
solamente la línea base. Es decir, cuando el músculo se encuentra en reposo no se
registra ninguna actividad en el EMG. Si en estas condiciones se lleva a cabo una
contracción débil por parte del músculo, se visualizará en el osciloscopio un reducido
número de potenciales de unidad motora, siendo cada una de ellas fácilmente
discernible de las demás, y existiendo entre ellas amplios segmentos de línea base.
Estamos en actividad de Patrón simple. Si aumentamos la fuerza de contracción se
incorporan nuevos potenciales que densifican el trazado, siendo ya escasos los trechos
netos con línea de base discernible, se está en el Trazado intermedio. Si la contracción
llega a ser máxima desaparecerá por completo la línea de base y se habrá conseguido
el Patrón de interferencia (Figura8.6).

Habrá que tener en cuenta que el patrón interferencial depende de varios factores
además de la intensidad de contracción. En algunos músculos, como los gemelos, es
difícil conseguir un patrón interferencial tan bien integrado como en el tibial anterior.
Asimismo, el tipo de contracción isométrica o isotónica juega un papel importante. Por
tanto, la valoración del patrón interferencial constituye una variable influida por muchos
factores y que debe considerarse en el momento de instar el balance definitivo.

Figura 8.6. Patrones de actividad en la contracción progresiva muscular. a. Patrón


simple; b. Patrón intermedio; c. Patrón interferencial.
228
8.5.1.1. Electromiograma de fibra única.

El electromiograma derivado por electrodos concéntricos capta potenciales formados por


varias fibras musculares. Con el fin de registrar una única fibra se han puesto en marcha
unos electrodos especiales, los llamados electrodos de fibra única. El electrodo de fibra
única se compone de una cánula de acero inoxidable en cuyo interior hay un hilo de
platino. La superficie de conducción del platino tiene un diámetro de 2,5 mm, y emerge a
un lado de la extremidad distal de la aguja (Figura 8.7). Precisa amplificadores con unas
prestaciones especiales.

Figura 8.7. Esquema de los electrodos de fibra única.

El electromiograma de fibra única es utilizado predominantemente para el diagnóstico de


la Miastenia grave. Desde un punto de vista práctico, el músculo utilizado para este tipo
de exploraciones suele ser el extensor común de los dedos y cada potencial dispara el
barrido del osciloscopio. Se utiliza asimismo una línea de retraso que permite fijar el
potencial en el mismo lugar de la pantalla en todos el barrido. La velocidad de barrido
fijada es de 1 milisegundo por división.

Hay tres elementos que caracterizan la Fibra Única:

A) Morfología del potencial. Se trata de una forma bifásica con fase terminal de poca
amplitud y larga duración. La duración es de 1 ms y la amplitud es de 1 mv.

B) El Jitter. Cuando se estimula una fibra única es corriente que el estímulo también
alcance a una segunda fibra de la misma unidad motora. Esta, normalmente responde
con un potencial similar al registrado en la primera fibra, aunque suele presentar menor
amplitud. El tiempo que transcurre entre los dos potenciales es el intervalo interpotencial
y puede alcanzar varios milisegundos. Una propiedad de este intervalo es que
normalmente es muy estable entre descargas sucesivas. Esto se ve muy bien si el
primer potencial es utilizado para disparar el barrido del registro oscilográfico. En estas
circunstancias, el primer potencial se registra perfectamente estable al principio de cada
barrido, pero el segundo se ve oscilar levemente, dependiendo de las pequeñas
variaciones en el intervalo interpotencial (Figura 8.8). Esta variación es el llamado jitter.
En los casos en los que la sinapsis neuromuscular se encuentra perturbada, el intervalo
entre las dos respuestas es más variable y se puede ver el segundo potencial
adelantándose unas veces y retrasándose otras, es decir, el intervalo aumenta en
variabilidad.

229
Para registrar el jitter es preciso obtener un registro en el que se activen claramente dos
fibras pertenecientes a una misma unidad motora. Entonces se tomarán medidas del
intervalo entre un cierto número de casos restándose cada vez un intervalo del siguiente
y anotándose el valor absoluto de estas diferencias. Estos valores absolutos se suman y
se dividen por el número de casos estudiados con lo que se obtiene la diferencia
promedio. Para un músculo normal este promedio es de 20 microsegundos y valores
superiores a los 50 microsegundos en más del 5 al 10% de las unidades se deben
considerar patológicos. Otro método consiste en superponer diez registros sobre el
mismo oscilograma y medir el rango de variación entre la segunda respuesta más rápida
y la más tardía. Este rango multiplicado por 0.37 da una estimación bastante precisa del
valor del jitter. Algunos equipos miden el jitter automáticamente .

C) Bloqueo de la transmisión. - El estudio del jitter no solo implica la medida de su


variabilidad sino también el número de casos en los que la segunda respuesta no se
produce por bloqueo de la sinapsis neuromuscular. En músculos normales nunca ocurre
el bloqueo.

También puede medirse la densidad de fibra, o número de fibras de una unidad motriz
en el campo de un electrodo. El incremento de la densidad de fibra es un signo, entre
otros, de reinervación por adopción colateral.
(sigue gráfica...)

230
Figura 8.8. Registro electromiográfico de fibra única. Se observa el potencial de acción
de la fibra principal de la unidad motora con un intervalo entre espigas IE y la respuesta
de una segunda fibra colateral con un retardo IJ. En el registro inferior se representan las
dos respuestas con escala de tiempo ampliada. El rango de variación del intervalo entre
dos respuestas es el jitter.

8.5.4. Técnicas de estudio de la unión neuromuscular.

En general, el estudio de la unión neuromuscular implica el estímulo del nervio y el


registro de la actividad muscular subsiguiente. Puesto que con la estimulación siempre
se producirá algún movimiento, es precisa la aplicación de una técnica muy depurada
que impida que el movimiento de los electrodos produzca respuestas falseadas. Las
pruebas que se realizan rutinariamente para el estudio de la unión neuromuscular son la
respuesta a un estímulo único y la respuesta a la estimulación repetitiva, a baja
frecuencia (3 Hz), registrándose las cinco primeras respuestas, y a frecuencia alta (20
Hz) registrándose entre 60 y 120 respuestas. Cualquiera de estas pruebas puede ser
231
repetida, con o sin la realización de esfuerzos en el intervalo, para observar los efectos
de la fatiga y la sensibilización.

8.5.4.1. Respuesta a estímulo único.

Se colocan los electrodos de registro sobre el músculo bajo estudio, uno sobre el vientre
y el otro distalmente. Los electrodos de estimulación se colocan sobre el nervio que
gobierna el músculo estudiado. El electrodo de tierra se coloca entre los electrodos de
estímulo y de registro. Se estudiarán los músculos en los que se hayan apreciado
síntomas clínicos. En caso de que éstos no se manifiesten claramente, se estudia el
músculo abductor V, el abductor del pulgar o el primer interóseo dorsal. El estímu1o se
aplicará sobre el nervio cubital a nivel de1 codo y el electrodo de tierra, en la muñeca
(Figura 8.9).

Figura 8.9. Localización de electrodos y estimulación. Electrodos de registro bipolar (R):

1er. interóseo dorsal. Tierra (E): en la muñeca. Estimulación (S): en el nervio cubital.

El músculo normal responde a un estímulo único de intensidad supra máxima (que


active a todas las fibras) con una despolarización que alcanza entre 5 y 15 mV de
amplitud. Esta respuesta se llama un Potencial de Acción Muscular Compuesto (PAMC),
porque está producida por la respuesta de un conjunto de fibras musculares que se
encuentran en el radio de captura del electrodo. Cuando esta amplitud descienda por
232
debajo de 1 mV se puede sospechar la enfermedad de Lambert-Eaton (Figura 8.10). La
baja amplitud de la respuesta en esta enfermedad es debida a que mientras el músculo
está en reposo un gran número de sinapsis están bloqueadas.

El registro de la amplitud (valor pico a pico) del PAMC suele dar una buena idea del
diagnóstico de una anomalía en la función neuromuscular. Sin embargo, es mejor
calcular el área bajo la curva del PAMC en su porción negativa que corresponde a la
despolarización de las fibras musculares. Se considera que este procedimiento da una
idea mejor del número de fibras activadas por el estímulo.

Figura 8.10. Respuesta obtenida en un paciente afecto de la enfermedad de Lambert-


Eaton mediante estimulación supra máxima del nervio cubital a una frecuencia de 3Hz.

8.5.4.2. Respuesta a la estimulación repetitiva.

La placa motora normal es capaz de responder a la estimulación a frecuencias de más


de 20 Hz en una re1ación uno a uno, es decir, produciendo un PAMC en respuesta a
cada estímulo: veinte estímulos, veinte PAMC. Además, en individuos normales, la
amplitud de la respuesta se reduce muy poco con la estimulación repetitiva. En cambio,
si la sinapsis se encuentra deteriorada, bien se apreciará una respuesta decremental
entre el primero y el último estímulo de una serie o peor, comenzarán a fallar algunas
respuestas incluso a frecuencias mucho menores de los 20 Hz.

a) Estimulación a baja frecuencia.

Se utiliza la misma disposición que la descrita para la aplicación de estímulos únicos,


con la diferencia de que se estimula a una frecuencia de 3 Hz y no suelen registrarse
más de cinco respuestas. La prueba puede repetirse después de un minuto de ejercicio
a máximo esfuerzo del músculo bajo estudio.

En individuos sanos la respuesta entre el primer estímulo y el cuarto sufre un


decremento menor de un 10%. A partir del quinto estímulo suele aparecer un incremento
en la amplitud (Figura 8.11). Este incremento no suele superar el 10% en la fase
negativa del PAMC, pero en la positiva puede alcanzar el 50%. Este fenómeno se llama
pseudofacilitación. En realidad, el número de sinapsis activadas no se ha modificado,
pero ha aumentado la velocidad de conducción del potencial de acción en la membrana
de la fibra muscular.
233
Figura 8.11. Estimulación repetitiva a baja frecuencia en un individuo sano. Se estimula
con una frecuencia de 3 Hz.

El decremento se calcula en forma de porcentaje para la reducción entre la respuesta al


primero (Al) y al quinto estímulo (AS), según la fórmula:

Decremento (%) = -100 (A1-A5) /A1

Cuando el PAMC se reduce en más de un 10% se debe sospechar alguna anomalía. En


el caso de la miastenia el PAMC se mantiene reducido o incluso aún disminuye más en
una segunda serie de estimulaciones si ha habido una serie de esfuerzos musculares
entre ambas. En cambio, en la enfermedad de Lambert-Eaton, el PAMC después del
ejercicio adquiere valores más próximos a los normales o incluso puede superar los
valores iniciales.

b) Estimulación a alta frecuencia.

En este análisis se utiliza la misma disposición descrita en los casos anteriores, si bien la
estimulación se aplica a 20 Hz. Con esto el músculo se tetaniza, es decir, se contrae de
forma sostenida con realización de un esfuerzo máximo. Se estudian entre 60 y 120
estimulaciones y sus correspondientes PAMC. En individuos sanos la respuesta a los
primeros 60 estímulos no se modifica o se incrementa levemente (Figura 8.12.A). En la
miastenia comienza reduciéndose para luego incrementarse, aunque nunca se
consiguen los niveles obtenidos para el primer estímulo. Este incremento es debido en
parte a la pseudo facilitación y en parte a una auténtica facilitación que sigue a la
activación repetitiva de las uniones neuromusculares.

234
En el síndrome de Lambert-Eaton todas las respuestas presentan una amplitud muy
baja, aunque se producen importantes incrementos entre los primeros y los últimos
estímulos. En el estímulo A120 se alcanzan amplitudes que superan en más del 300% a
la amplitud de A1 (Figura 8.12.B).

Figura 8.12. Registro de las respuestas obtenidas por estimulación a alta frecuencia (20
Hz). A. En condiciones normales. B. En el síndrome de Lambert-Eaton. Téngase en
cuenta la diferencia de escala en mV.

La estimulación repetitiva a alta frecuencia es bastante dolorosa, por lo que no es


conveniente su aplicación si no hay indicios de una enfermedad de Lambert-Eaton. Para
la obtención de pruebas claras de miastenia suele bastar con la aplicación de la
estimulación a 3 Hz.

CAPÍTULO 9

235
EQUIPOS DE DIAGNÓSTICO Y TRATAMIENTO
TOMÓGRAFOS Y ELECTROBISTURÍS

Introducción

Desde la aparición de la electrónica en la vida cotidiana, la Ingeniería Electrónica ha


tratado de aplicarla en beneficio de la salud y de la investigación del cuerpo humano.
Así, el diagnóstico por imágenes ha ido avanzando hasta convertirse en la actualidad en
un método indispensable para el estudio y seguimiento de infinidad de tratamientos.
Desfibriladores y marcapasos son instrumentos eléctricos (electrónicos) indicados en
diferentes tratamientos; los electrobisturís y el láser permiten cirugías con menores
riesgos y equipos como tomógrafos, electrocardiógrafos o ultrasonidos entregan datos
más que importantes para detectar diferentes anomalías en el cuerpo humano.
Evidentemente, en el desarrollo de los equipos mencionados han participado técnicos e
ingenieros en electrónica y en todo hospital o centro de salud que posea al menos uno
de estos equipos debe haber un técnico que realice mantenimiento y, por ende, tiene
que estar capacitado para entender su funcionamiento. En este capítulo se explica qué
es una tomografía, cómo deben ser los tomógrafos, en qué se basa el electrobisturí y
cómo debe ser un equipo electrónico de estas características.

9.1. Tomografía.

En medicina, la Tomografía es el procesado de imágenes de determinadas zonas del


cuerpo humano por secciones. El equipo que procesa estas imágenes se llama
tomógrafo, mientras que la imagen producida es un tomograma. Este método no sólo se
usa en medicina, sino que aporta excelentes resultados en arqueología, biología,
geofísica, oceanografía, ciencia de los materiales y otras ciencias. En la mayoría de los
casos se basa en un procedimiento matemático llamado reconstrucción tomográfica.
Hay muchos tipos de tomografías aplicadas a la salud, pero se destacan las tomografías
por emisión de positrones y la tomografía computada o computarizada. Una tomografía
de varias secciones de un cuerpo es conocida como politomografía.

9.1.1. Tomografía PET

La tomografía por emisión de positrones (PET: por las siglas en inglés de Positron
Emission Tomography), Figuras 9.1 y 9.2, es un tipo de procedimiento de medicina
nuclear que mide la actividad metabólica de las células de los tejidos del cuerpo. El PET,
es en realidad, una combinación de medicina nuclear y análisis bioquímico. Se utiliza
principalmente en pacientes que tienen enfermedades del corazón o del cerebro y
cáncer, el PET ayuda a visualizar los cambios bioquímicos que tienen lugar en el cuerpo,
como el metabolismo (proceso por el cual las células transforman los alimentos en
energía después de que han sido digeridos y absorbidos en la sangre) del músculo
cardíaco. La Tomografía por Emisión de Positrones es una técnica no invasiva de
diagnóstico e investigación por imagen capaz de medir la actividad metabólica de los
diferentes tejidos del cuerpo humano, especialmente del sistema nervioso central. Al
igual que el resto de técnicas diagnósticas en Medicina Nuclear, el PET se basa en

236
detectar y analizar la distribución que adopta en el interior del cuerpo un radioisótopo
administrado a través de una inyección. La diferencia entre este estudio y otros
exámenes de medicina nuclear es que el PET detecta el metabolismo dentro de los
tejidos corporales, mientras que otros tipos de exámenes de medicina nuclear detectan
la cantidad de sustancia radioactiva acumulada en el tejido corporal en una zona
determinada para evaluar la función del tejido.

Figura 9. 1. Imágenes: A) con TAC Transaxial del cerebro B) Con PET Transaxial.
Foto: Universidad de Michigan.

237
Figura 9.2. Imagen del cerebro por tomografía de emisión de positrones
(PET) Foto: Universidad de Michigan.

Esta técnica mide la producción de fotones gamma como resultado de la destrucción de


un positrón. Para obtener una tomografía PET se inyecta una sustancia que se desea
investigar unida a un isótopo que emite positrones (radionúclidos), y se evalúa el paso
de la sustancia por la barrera hematoencefálica. Se toman imágenes en tiempo real
observándose imágenes bidimensionales utilizando técnicas matemáticas de
construcción de imágenes.

Los radionúclidos que se emplean en el PET son sustancias químicas como la glucosa,
el carbono o el oxígeno, que son utilizadas naturalmente por el órgano o tejido en
cuestión durante el proceso metabólico. Se agrega una sustancia radioactiva a la
sustancia química requerida para las pruebas específicas. Por ejemplo, en el PET
cerebrales, se aplica una sustancia radioactiva a la glucosa (azúcar en la sangre) para
238
crear un radionúclido denominado fluorodeoxiglucosa (FDG), ya que el cerebro utiliza
glucosa para su metabolismo. La FDG se utiliza en gran medida en los estudios de PET.

Pueden utilizarse otras sustancias para los estudios de PET, según el propósito del
examen. Si se estudia el flujo de sangre y la perfusión de un órgano o tejido, el
radionúclido puede ser un tipo de oxígeno, carbono, nitrógeno o galio radiactivo.

El PET utiliza un dispositivo de exploración (una máquina con un gran hueco en el centro
llamado Gantry) que detecta los positrones (partículas subatómicas) emitidos por un
radionúclido en el órgano o tejido que se estudia. La Figura 9.3 esquematiza el proceso
de captura del PET. La posibilidad de poder identificar, localizar y cuantificar el consumo
de glucosa por las diferentes células del organismo, ofrece un arma de capital
importancia al diagnóstico médico, puesto que muestra qué áreas del cuerpo tienen un
metabolismo glucídico elevado. Un elevado consumo de glucosa es, precisamente, la
característica primordial de los tejidos neoplásicos.

Figura 9.3. Proceso de captura del PET.

De esta manera es factible localizar los focos de crecimiento celular anormal en todo el
organismo ya que el PET no evalúa la morfología de los tejidos, sino su metabolismo y,
por ende, se puede detectar un crecimiento anormal de las células, tema que trata la
oncología.

El radionúclido se administra por vía intravenosa o se inhala como un gas. Luego, el


escáner del PET se mueve lentamente sobre la parte del cuerpo en estudio. La
239
descomposición del radionúclido emite positrones. Durante la emisión de positrones se
generan los rayos gama, que luego serán detectados por el escáner. Una computadora
analiza los rayos gama y utiliza la información para crear un mapa de imagen del órgano
o tejido en estudio. La cantidad de radionúclidos concentrados en el tejido afecta el brillo
con el que aparece el tejido en la imagen e indica el nivel de funcionalidad del órgano o
tejido. Se suelen emplear estos estudios para:

 Para detectar la propagación del cáncer a otras partes del cuerpo desde el sitio en
que apareció originalmente y para evaluar la eficacia de un tratamiento contra este
mal. También para ayudar a controlar y tratar el cáncer de pulmón mediante la
clasificación por etapas de las lesiones y el seguimiento del progreso de las lesiones
después del tratamiento.
 Para diagnosticar demencias (trastornos relacionados con el deterioro de la función
mental) como la enfermedad de Alzheimer, así como otros trastornos neurológicos
como: Enfermedad de Parkinson (enfermedad progresiva del sistema nervioso en la
que se observa un leve temblor, debilidad muscular y un modo de caminar particular),
Enfermedad de Huntington (enfermedad hereditaria del sistema nervioso que causa
demencia progresiva, movimientos extraños involuntarios y una postura anormal),
Epilepsia (trastorno cerebral que provoca convulsiones recurrentes).
 Para localizar la zona donde se realizará un procedimiento quirúrgico en el cerebro.
 Para evaluar el cerebro después de un traumatismo y detectar hematomas (coágulos
de sangre), hemorragias o perfusión (flujo de sangre y oxígeno) del tejido cerebral.
 Para identificar y cuantificar lesiones pulmonares o masas detectadas en radiografías
o tomografía computarizada (TC) de tórax.

Figura 9.4. Tomógrafo PET típico.

9.1.2. Tomografía Axial Computarizada (TAC).

240
La tomografía axial computarizada (TAC) es una prueba de diagnóstico radiológica
mediante la utilización de rayos X y procesamiento de las imágenes por ordenador.
Mediante el ordenador se reconstruyen los planos atravesados por los rayos X. La
imagen se construye midiendo la absorción de rayos X por el tejido atravesado.

Al procesar las imágenes se pueden ver como cortes tridimensionales en un monitor de


televisión o en una radiografía. Con este método se consiguen imágenes muy precisas
del interior del organismo y de sus diferentes órganos, permitiendo diagnósticos muy
exactos. Para obtener una TAC, el paciente permanece acostado en una camilla, y ésta
se desliza dentro del tubo Gantry que genera los rayos X, que gira alrededor del
paciente. No causa dolor ni molestia alguna. Tampoco produce claustrofobia ni ruido
como la RMN (resonancia magnética nuclear). El técnico de radiología permanece en
comunicación con el paciente constantemente a través de un sistema de comunicación,
indicándole los pasos a seguir.

Las TAC más comunes son:

 TAC abdominal
 TAC craneal
 TAC torácico
 TAC lumbosacro
 TAC de órbitas

Para explicar el funcionamiento de esta técnica, el equipo emite un haz muy fino de
rayos X. Este haz incide sobre el objeto que se estudia y parte de la radiación del haz lo
atraviesa. La radiación que no ha sido absorbida por el objeto, en forma de espectro, es
recogida por los detectores. Luego el emisor del haz, que tenía una orientación
determinada (por ejemplo, estrictamente vertical a 90º) cambia su orientación (por
ejemplo, haz oblicuo a 95º). Este espectro también es recogido por los detectores. La
computadora suma las imágenes y las promedia. Luego, el emisor cambia su orientación
(por ejemplo, a 100º de inclinación). Los detectores recogen este nuevo espectro, lo
suman a los anteriores y promedian todos los datos. Esto se repite hasta que el tubo de
rayos y los detectores den una vuelta completa, momento en el que se dispone de una
imagen tomográfica definitiva y confiable. En la Figura 9.5 se explica el procedimiento
que permite la toma de un TAC. La parte a representa el resultado en imagen de una
sola incidencia o proyección (vertical, a 90º). Se trata de una representación
esquemática de un miembro, por ejemplo, un muslo. El color negro representa una
densidad elevada, la del hueso. El color gris representa una densidad media, los tejidos
blandos (músculos). El hueso, aquí, deja una zona sombreada. Los músculos, una zona
de penumbra. La parte b también representa el resultado en imagen de una sola
incidencia o proyección, pero con un ángulo diferente (horizontal, a 180º). En la parte c
se grafica qué hace la CPU con las dos imágenes. Aquí la zona de sombra ya está
limitada al centro de la figura, pero la imagen presenta unos perfiles muy diferentes al
objeto que se estudia (un cuadrado en vez de un círculo). En la parte d de la Figura 9.5
la CPU dispone de datos de cuatro incidencias: 45º, 90º, 135º y 180º. Los perfiles de la
imagen son octogonales, lo que la aproximan mucho más a los contornos circulares del
241
objeto real. Una vez que ha sido reconstruido el primer corte, la mesa donde el objeto
reposa avanza (o retrocede) una unidad de medida (hasta menos de un milímetro) y el
ciclo vuelve a empezar. Así se obtiene un segundo corte (es decir, una segunda imagen
tomográfica) que corresponde a un plano situado a una unidad de medida del corte
anterior.

Figura 9.5. Disposición de cuatro incidencias: 45º, 90º, 135º y 180º en la CPU de un
TAC.

A partir de todas esas imágenes transversales (axiales) la CPU reconstruye una imagen
bidimensional que permite ver secciones de la pierna (o el objeto de estudio) desde
cualquier ángulo. Los equipos modernos permiten incluso hacer reconstrucciones
tridimensionales. Estas reconstrucciones son muy útiles en determinadas circunstancias,
pero no se emplean en todos los estudios, como podría parecer. Esto es así debido a
que el manejo de imágenes tridimensionales no deja de tener sus inconvenientes. Como
casi todos los cuerpos son opacos, la interposición de casi cualquier cuerpo entre el
observador y el objeto que se desea examinar hace que la visión de éste se vea
obstaculizada. La representación de las imágenes tridimensionales sería inútil si no fuera
posible lograr que cualquier tipo de densidad que se elija no se vea representada, con lo
que determinados tejidos se comportan como transparentes. Aun así, para ver
completamente un órgano determinado es necesario mirarlo desde diversos ángulos o
hacer girar la imagen. Pero incluso entonces veríamos su superficie, no su interior. Para
242
ver su interior debemos hacerlo a través de una imagen de corte asociada al volumen y
aun así parte del interior no siempre sería visible. Por esa razón, en general, es más útil
estudiar una a una todas las imágenes consecutivas de una secuencia de cortes que
recurrir a reconstrucciones en bloque de volúmenes, aunque a primera vista sean más
espectaculares.

9.2. Electrobisturí.

La unidad electroquirúrgica, también conocida como electrobisturí o bisturí caliente es un


equipo electrónico capaz de transformar la energía eléctrica en calor con el fin de
coagular, cortar o eliminar tejido blando, eligiendo para esto corrientes que se
desarrollan en frecuencias por encima de los 200 KHz ya que éstas no interfieren con los
procesos nerviosos y sólo producen calor. El electrobisturí está compuesto por una serie
de módulos individuales que en conjunto conforman un circuito eléctrico; la corriente
debe circular desde un generador hasta un electrodo activo, a través del tejido, y volver
al generador vía electrodo de dispersión inactivo. Al ser el electrobisturí un aparato
eléctrico, su uso no está libre de complicaciones. El mayor peligro es la quemadura
eléctrica.

Este equipo consta de dos partes, una estéril y una no estéril. Lo estéril, sería el cable
(partiendo desde el aparato) y el mango con la punta del electrobisturí. Lo que no es
estéril es la plancha que va por debajo del paciente a la hora de utilizar el electrobisturí.
Las puntas, de carga positiva, pueden ser de tipo:

 Cuchillo (la más utilizada),


 Aguja (para zonas de menor tamaño),
 Punta bola (para coagular mucosas).

Algunas suelen ser de teflón para que el tejido no quede adherido al quemarse. El
mango puede ser a pedal o puede tener botones para operar el electrobisturí. Se tiene
un botón para el corte y un botón para coagulación. La plancha es de carga negativa.
Puede ser de metal, plomo o autoadhesiva descartable. Se coloca cerca de donde se va
a hacer la incisión antes de que se acomode al paciente en la camilla, quedando por
debajo de él antes de preparar el campo operatorio. Hay que tomar precauciones con
respecto a pacientes con marcapasos, prótesis, uniones metálicas, entre otros. En
aplicaciones de odontología se encuentran dos tipos de instrumentos que se diferencian
en la frecuencia portadora de su generador:

 Electrobisturís, con frecuencias hasta 3MHz,


 Radiobisturís con frecuencias por encima de 3.5MHz.

En cuanto a las funciones que realizan, existen pocas diferencias:

 Todos realizan electrosección pura y combinada, así como electrocoagulación.


 Algunos incluyen toma bipolar y/u otra fulguración.

243
 Todos garantizan potencias eficaces entre 50W y 100W e incluyen entre sus
accesorios todo lo necesario para funcionar inmediatamente, a excepción de un juego
de pinzas bipolares que es opcional.

Tan sólo un accesorio delata claramente el tipo de equipo. El electrodo neutro, que en el
caso del radio bisturí toma el nombre de antena. La antena se encuentra forrada por un
material aislante que impide la conducción eléctrica a través de ella pero que sí permite
la recepción y emisión electromagnética. Se puede afirmar que el funcionamiento del
electrobisturí se basa en las tres siguientes afirmaciones:

 La radiación electromagnética aparece siempre que se produce una variación en la


posición de los electrones de la materia.
 La radiación electromagnética es portadora de energía.
 La circulación de corriente eléctrica variable, por lo tanto, permite la radiación de
energía.

9.2.1. Introducción teórica que explica el funcionamiento del bisturí electrónico.

Adoptando el modelo de Niels Bohr, la materia está compuesta por átomos con
partículas mínimas elementales, el electrón, el protón y el neutrón que son a las que se
deben todas sus propiedades. Estas partículas mínimas se agrupan siguiendo leyes,
para formar estructuras más complejas como los átomos (Figura 9.6). Los átomos se
agrupan entre sí formando moléculas, que a su vez pueden agruparse en compuestos
más complicados como, por ejemplo, la doble espiral del ADN (Figura 9.7) que identifica
el genoma humano Si se tuviese un átomo aislado se puede identificar dos partes bien
diferenciadas, el núcleo y la corteza. El núcleo está constituido por protones y neutrones
y la corteza por electrones. Al núcleo se debe la identidad de la materia (Oro, Plata,
Hidrógeno, entre otros) y su ordenamiento en la Tabla Periódica de los Elementos, y a la
corteza o bandas se deben sus propiedades químicas, eléctricas y magnéticas. La
corteza del átomo está formada por electrones que giran en ciertas órbitas alrededor del
núcleo. Estos pesan menos que la milésima parte de un protón, aunque ambos tienen la
misma carga y signos opuestos.

244
Figura 9.6. Estructura atómica.

Figura 9.7. Doble espiral del ADN que identifica el Genoma Humano.

Dado que la masa de un neutrón es, aproximadamente igual, a la del protón, no es difícil
con un sistema planetario en miniatura, con un enorme núcleo en su centro y unos
minúsculos satélites eléctricos orbitando a su alrededor (Figura 9.8). Estos electrones no
pueden ocupar, en el espacio del átomo, cualquier lugar; sino unos espacios
determinados por la propia naturaleza del mismo. A estos lugares se los llama estados
energéticos permitidos, son llamados orbitales y provocan que cada elemento de la

245
naturaleza tenga su propia huella dactilar: el espectro atómico. Todo ello permite intuir
que la energía de un electrón está cuantificada. De hecho, la energía que posee un
electrón se define con cuatro parámetros llamados números cuánticos.

Figura 9.8. Partículas orbitando alrededor del núcleo atómico.

Un átomo con orbitales vacíos presenta un desequilibrio eléctrico ya que tendrá cargas
positivas en el núcleo y vacíos en las órbitas o bandas. Esto le crea una cierta capacidad
para captar electrones errantes o ajenos. Potencialmente tenderá a subsanarlo
manteniendo siempre llenos, en orden creciente, los más próximos al núcleo. Estos son
los de menor energía. Cuando aplicamos un impulso extra al electrón, éste tiende a
ocupar órbitas más elevadas. Si esta energía es suficiente, puede incluso abandonar el
volumen de influencia del átomo y salir de él. A una cierta distancia del núcleo los
orbitales posibles de energía desaparecen y se habla de un continuo de energía. Las
perturbaciones sufridas por los electrones son las causantes de las radiaciones
electromagnéticas. Para explicar mejor este efecto, se debe recordar que los electrones
son portadores de energía y además de girar alrededor del núcleo, lo hacen también
alrededor de su propio eje, particularidad llamada espín y cuyas perturbaciones tienen
mucha relación con las propiedades magnéticas de la materia. Cuando un electrón pasa
de un nivel de energía a otro lo hace absorbiendo o emitiendo una radiación
electromagnética dada. Físicamente, para cambiar de nivel energético se acerca o aleja
del núcleo, ocupando un lugar en otra banda u orbital. Usando los postulados
introducidos por Einstein, a este paquete de energía radiada (quantum / cuanto de
acción) se le llama fotón. Esto quiere decir que si el electrón pasa de un nivel energético
superior a otro inferior, se liberará energía en forma de fotón. Es una radiación, como
una sucesión de fotones emitidos en todas las direcciones (Figura 9.9).
246
Figura 9.9. Emisión de fotón por disminución de nivel energético.

Un fotón tiene como característica fundamental una energía y una frecuencia


determinadas que están relacionadas por la conocida expresión E= h, siendo, E, la
energía del fotón; f, la frecuencia y h, la constante de Planck. Observar que el fotón se
emite, como energía discreta y única por un electrón, cuando salta de una energía
mayor a una menor. Luego una radiación continua exige una emisión continua de
fotones y por tanto un traslapo continuo de uno a otro nivel. La radiación
electromagnética se produce a consecuencia de las perturbaciones sufridas por los
electrones. Esta definición establece que si un átomo vibra en su conjunto, también, se
perturbarán los electrones y por tanto habrá emisión de fotones. Esta vibración radiaría
fotones térmicos (calor) principalmente. Lo mismo es aplicable a una vibración, o
rotación, molecular y a una macromolecular. Las estructuras más complejas también
tienen energías cuánticas características.

Cuando un electrón se encuentra en un continuo, es decir, que no posee una energía


cuantificada, se puede someter a perturbaciones por medio de campos eléctricos y
magnéticos provocados, haciendo que se desplacen a lo largo de un hilo conductor y,
por lo tanto, provocando la emisión de radiación. Se puede afirmar que la radiación
electromagnética es algo universal, común a todos los cuerpos radiantes y que se
caracterizan por su energía fotónica, por su frecuencia y que siempre se produce por
perturbaciones de carga, bien sea al desplazarla por un conductor, como en la corriente
eléctrica, o por que salta de un nivel de energía a otro. En la Figura 9.10 se puede
observar el espectro de radiación electromagnética. La energía de los fotones de
radiación se mide en ev (electrón-volt) que es una unidad, muy apropiada, para estas
escalas de energía. Por otra parte la velocidad de transmisión de estas radiaciones es
siempre la misma, 300.000 km/segundo, sin importar su frecuencia o energía (velocidad
de la luz).

247
Figur
a 9.10. Espectro de radiación electromagnética.

Supóngase un cable de cobre. Si se lo pone en contacto por uno de sus extremos con
una sustancia con avidez de electrones (defecto de electrones), y por el otro extremo,
con una sustancia con exceso de electrones, se producirá entre los mismos una
diferencia de potencial eléctrico (que se mide en volt). El extremo deficitario capturará
electrones del metal, dejando sus átomos proximales desequilibrados. Estos, a su vez,
capturarán electrones de sus vecinos, y así sucesivamente. El fenómeno es similar al de
la difusión de la tinta en el agua, pero se produce a la velocidad de la luz. Estas capturas
se van extendiendo hasta que se alcanza el otro extremo del cable. Allí, la sustancia con
electrones en exceso cede algunos a los átomos desequilibrados que van apareciendo.
El fenómeno es equivalente a considerar un flujo de electrones circulando de una a otra
sustancia. A este flujo lo llamamos corriente eléctrica y se mide en ampere (A). Este
proceso se repetirá hasta que las sustancias de los extremos alcancen un equilibrio
relativo entre sí y la diferencia de potencial se anule. Las sustancias de que hablamos,
248
bien pudieran ser las que constituyen una batería o una pila eléctrica común. Como se
sabe, la corriente eléctrica puede ser continua o alterna. La primera implica que el flujo
de electrones va siempre en un mismo sentido, de un extremo al otro del conductor.
Mientras que la corriente alterna implica un cambio de sentido del flujo, debido a un
cambio de polaridad. La corriente continua puede ser, constante o variable. La constante
produce campos magnéticos estáticos y por ello se utiliza para activación de
electroimanes, electro válvulas, etc. La corriente continua constante no emite radiación
alguna, sólo crea campos magnéticos estáticos en su entorno. La corriente continua
variable y la alterna sí producen emisión de radiación. Vemos que estas conclusiones se
corresponden perfectamente con lo visto sobre radiación: Una variación en la
distribución electrónica radiará energía. Todas estas corrientes las podemos representar
gráficamente, incluso cuando tienen formas de lo más complicadas. No obstante, se
tienden a representar como ondas senoidales periódicas con el fin de facilitar la
comprensión. Se puede demostrar matemáticamente que cualquier tipo de onda, de
cualquier forma y amplitud se puede considerar como una suma de ondas senoidales
(Series de Fourier). En la Figura 9.11, se pueden observar representados dos de los
parámetros característicos de una onda: longitud de onda y amplitud. Se ha elegido, la
onda de vibración de una cuerda común, por ser un ejemplo muy intuitivo y didáctico, en
donde se puede, de forma sencilla, ver las características de las ondas. Las ondas
tienen propiedades similares, sea cual sea su naturaleza. Los cuantos de vibración
sonora son llamados fonones.

Figura 9.11. Representación de los parámetros característicos de una onda: Longitud de


onda y Amplitud.

Volviendo a las corrientes eléctricas, estas se propagan por una sustancia en función de
su resistencia. Por ser esta una propiedad de las sustancias fundamentales para
entender los principios de actuación del electrobisturí, se explica más ampliamente
vamos sobre ella. La resistencia eléctrica es la propiedad de una sustancia que tiene
relación directa con la disponibilidad de electrones sueltos o con poca energía de unión
al núcleo (región del continuo), en los átomos considerados y se mide en OHM. Si están
249
muy equilibrados y en orbitales muy profundos (cercanos al núcleo), la resistencia a la
captura puede ser tan grande que podríamos hablar de auténtico aislante eléctrico. Esta
propiedad también tiene relación con la temperatura, o sea, con la vibración de los
átomos y con las dimensiones de la sustancia. Si la sección de paso del flujo de
electrones disminuye o la distancia a recorrer por los mismos aumenta, entonces la
resistencia crece.

Resumiendo, la resistencia de las sustancias puede ir de prácticamente desde cero ohm,


llamados superconductores, a varios millones, llamados aislantes.

El cuerpo humano, tiene una resistencia equivalente entre 5 K y 10 K (tomando dos


electrodos entre las manos, con la piel seca), pero este valor baja de forma importante
en los tejidos húmedos de la boca (100 a 500) y drásticamente cuando hemos
traspasado la piel; esto lo debemos de tener en cuenta siempre (Figura 9.12). Al hablar
de aislantes se debe tener en cuenta que hay diferencias de potencial para las que una
sustancia deja de serlo. Incluso el aire, como se sabe puede convertirse en conductor
cuando se aplican miles de voltios entre dos puntos cercanos, lo que produce un arco
voltaico.

Figura 9.12. Circuito demostrando contacto piel- electrodos.

Para hacer circular un flujo de electrones se debe emplear una cierta cantidad de
energía. Por el principio de la conservación de la energía, esta energía no puede
desaparecer, la energía eléctrica se convierte en calor. Esta conversión es,
cuantitativamente igual, al producto de la resistencia por el cuadrado de la intensidad
(Ley de Joule). Este concepto es muy importante para explicar la actuación del bisturí
250
eléctrico sobre los tejidos vivos. Las corrientes eléctricas y las diferencias de potencial
desempeñan un papel vital en los sistemas nerviosos. La conducción de los impulsos
nerviosos es fundamentalmente un proceso eléctrico, aunque el mecanismo de
conducción es mucho más complejo que en las sustancias sencillas como los metales. A
esta naturaleza de la transmisión del impulso se debe la gran sensibilidad del organismo
a las corrientes eléctricas exteriores.

Corrientes del orden de 0.1 amperios, muy pequeñas para generar calentamientos
importantes, interfieren con procesos nerviosos esenciales para funciones vitales tales
como el latido cardíaco. Corrientes más pequeñas, del orden de 0.01 amperios,
producen acciones convulsivas en los músculos y mucho dolor. Con 20 miliamperios, por
ejemplo, una persona no podría soltar un conductor y llegaría al shock. Entonces,
grandes corrientes, pero también algunas tan pequeñas como 0.001 amperio, pueden
producir fibrilación ventricular. Los efectos de la corriente sobre las personas, es casi
independiente de la frecuencia, hasta unos 1KHz, no importando si ésta es continua o
alterna. Por debajo de este valor aparecen fenómenos térmicos, farádicos y
electrolíticos, principalmente. Para frecuencias por encima de las 350kHz, las corrientes
no interfieren apreciablemente con los procesos nerviosos y sólo producen calor. Se
entiende así, cómo y por qué, las corrientes elegidas para electro cirugía, se desarrollan
en frecuencias, por encima de los 500kHz (0.5MHz). A estas frecuencias la conducción
eléctrica y la absorción orgánica de las ondas se hace más compleja. A medida que la
frecuencia aumenta, la energía tiende a ser radiada. Así aparecen dos mecanismos de
producción de calor: por efecto Joule, debido a la resistencia eléctrica, y por absorción
de radiación electromagnética, debido a las estructuras moleculares. Un efecto y otro
tomarán más relevancia a medida que aumente la frecuencia. En electrocirugía los dos
efectos son importantes y se emplean frecuencias hasta de 1MHz. Para frecuencias
entre 1MHz y 3MHz predomina el efecto electromagnético. En los llamados
Radiobisturís, de 3.5MHz a 4MHz, sólo la componente radiada adquiere importancia.
Visto todo lo anterior no es difícil deducir que, si circula una corriente de gran frecuencia
entre dos electrodos de unos 100 centímetros cuadrados y colocados en buen contacto
con la piel, y se le da la amplitud suficiente, se producirá una cierta cantidad de calor en
la parte del organismo situada entre los mismos, debido a los efectos explicados. La
potencia eléctrica entregada, resultando ser de 70 vatios (potencia que normalmente
emite un ser humano en promedio en todo su cuerpo). Esto implica que una de las
placas transferirá 70 vatios en total o 0,7 vatios por cada centímetro cuadrado (Figura
9.13). Esta densidad de energía, no es suficiente para comprometer los tejidos vivos,
pero si disminuimos la superficie de contacto a 1 mm cuadrado, por ejemplo, la densidad
de energía subirá a 70/0.1 = 800 vatios por centímetro cuadrado, lo que implica una
cantidad importante. Esta energía es suficiente como para evaporar o volatilizar 1
gramo de agua de los tejidos en contacto por cada dos segundos de emisión de energía.
Esto da idea de lo que ocurre: En el corte electroquirúrgico se evapora el agua de los
tejidos y sustancias en contacto, con tanta violencia que, literalmente, las células
explotan.

251
Figura 9.13. Densidad de potencia del corte electroquirúrgico.

Además, la temperatura de contacto y el vapor sobrecalentado producido, aseguran la


esterilización del corte. Se está ante, lo que en electrocirugía se llama, corte puro. Para
obtener técnicamente estas condiciones, se utilizan electrodos de contacto lo más
cortantes y delgados posible; se genera una onda senoidal de alta frecuencia, por
encima de 350kHz, llamada portadora, con una amplitud suficiente (alrededor de
1.000Vpp) para suministrar la energía requerida. A esta onda se le llama: onda
totalmente filtrada. Si el efecto que se quiere obtener es el de coagular los tejidos en
contacto, se debe rebajar el calor transmitido a los tejidos con el fin de que tan sólo
hiervan en sus propios líquidos y formen coágulo rápidamente. Para dispersar la
energía se usan electrodos de gran superficie de contacto (bolas y cilindros) y se
realizan ligeros toques sobre los tejidos. Si a la onda generada para el corte puro se la
modula con una semionda parcial senoidal, aumentando ligeramente la amplitud, se
obtendrán los efectos deseados. En este caso se está en lo que en electrocirugía se
llama: coagulación. A esta onda se la llama: parcialmente rectificada. Si se desea
obtener efectos intermedios entre el corte y la coagulación se emplea una modulación
que no rebaje tanto el calor transmitido. Se consigue así una hemostasia en el corte muy
importante. La onda se modula con una semionda completa senoidal, manteniendo los
mismos parámetros que en el caso anterior. Se está ante lo que en electrocirugía se
llama corte combinado/ corte con coagulación. A esta onda se la conoce por
completamente rectificada. Si lo que se pretende es la destrucción superficial de tejidos
por deshidratación, también llamado desecación, se puede generar una modulación por
onda amortiguada y gran amplitud, más de 2.500V, capaz de ionizar el aire y, por lo
tanto, de crear arcos eléctricos entre el electrodo y los tejidos. Este se aproximará a la
zona a tratar y sin llegar a tocarla (se debe evitar contacto prolongado para evitar crear
agujeros en los tejidos). También se pueden obtener estos arcos de un generador
eléctrico de chispas (spark gap generator). A esta técnica en electrocirugía se le llama

252
fulguración. La electrodesecación se pude obtener usando electrodos apropiados, y en
los modos de coagulación eligiendo una potencia adecuada.

Los aparatos que incluyen salida micro bipolar pueden realizar desecaciones sin
chispas, lo que es ideal para ciertas aplicaciones (Figura 9.14).

Figura 9.14. Tipos de cortes.

9.2.2 Diagrama en Bloques de un Electrobisturí.


253
En la Figura 9.15 se puede ver un diagrama de bloques interno de este instrumento. La
energía necesaria es tomada de la red eléctrica de 110V o 220V y transformada por la
Fuente de Alimentación interna. Este módulo se encarga de proveer energía a todos los
demás bloques. El Oscilador de RF se encarga de crear la onda portadora y el Oscilador
de Coagulación, la señal moduladora. Estas dos ondas son mezcladas en el Modulador.
Luego son ampliadas en el Amplificador de Potencia, para salir según selección, por la
toma monopolar hacia el mango porta electrodos, o la toma bipolar, hacia la pinza
electrocoaguladora. El circuito se cierra por la toma de neutro o antena para el
monopolar y entre terminales de pinza para la bipolar. Siguiendo normas, estos equipos
deben avisar con señal luminosa y acústica, la activación de los electrodos, con el fin de
advertir a los operadores cercanos y evitar así accidentes. También deben disponer de
un circuito de desconexión de emisión en caso de placa neutra desconectada, con el fin
de evitar quemaduras. En el caso de electrodo tipo antena el problema se invierte, ya
que aquí lo problemático es que se rompa el aislante y se produzcan con ello
quemaduras de contacto. Los modernos equipos de electro cirugía presentan un nivel de
seguridad elevado. No obstante, se recomienda a los usuarios que sigan detenidamente
las instrucciones del fabricante para evitar males mayores. Una buena costumbre es
hacer revisar el equipo todos los años por un técnico competente en la materia con
emisión de informe escrito si procediera en donde se hiciera constar las potencias
entregadas por el equipo, las derivas de corriente detectadas y el estado de electrodos.

Figura 9.15. Diagrama de bloques de un electrobisturí.

CAPÍTULO 10

254
FUNDAMENTOS DE LA IMAGEN DIGITAL

Introducción

El campo del procesamiento digital de imágenes está construido sobre bases


matemáticas y probabilísticas, pero la intuición y análisis humanos juegan un importante
papel al momento de escoger una técnica u otra. Esta elección se basa usualmente en
juicios visuales subjetivos.

Este capítulo pretende dar a entender la mecánica y los parámetros de la formación de


imágenes en el ojo humano, así como las limitaciones físicas de la vista humana en los
mismos términos que usan para imágenes digitales. Se definirán algunos conceptos
para entender la temática. En este contexto surgen las siguientes preguntas: ¿Qué
diferencias de intensidad podemos distinguir? ¿Cuál es la resolución espacial del ojo
humano? ¿Qué tan precisamente podemos estimar y comparar distancias? ¿Cómo
percibimos los colores? ¿Qué características nos ayudan a detectar y distinguir objetos?

10.1 Elementos de la percepción visual.

10.1.1 Estructura del ojo humano.

El ojo humano es casi una esfera, de aproximadamente 20 mm de diámetro. Tres


membranas lo cubren Córnea, Esclerótica y Retina.

a. Córnea.

Junto con la esclerótica forma la membrana exterior del ojo. Es un tejido


transparente que cubre la superficie frontal del ojo.

b. Esclerótica.

Es una membrana opaca que cubre el resto del globo ocular.

c. Coroides.

Contiene una red de vasos sanguíneos que son la principal fuente de nutrición del
ojo. La coroides está fuertemente pigmentada para reducir la cantidad de luz exterior
que entra al ojo y la reflexión interna dentro de él. En su parte frontal, se divide en el
cuerpo ciliar y el iris.

d. Cuerpo ciliar.

A él están unidos los músculos ciliares, que controlan el cristalino.


e. Diafragma Iris.

255
Se expande o contrae para controlar la cantidad de luz que entra en el ojo. La
apertura central del iris, llamada pupila, varía su diámetro de 2 a 8mm. El frente del
iris contiene el pigmento visible del ojo, y la parte trasera contiene un pigmento negro.

d. Cristalino.

Está suspendido por fibras que lo atan al cuerpo ciliar. Tiene una pigmentación
amarillosa que puede aumentar con la edad. El cristalino absorbe aproximadamente
8% del espectro visible, especialmente en longitudes de onda cortas. La luz
ultravioleta e infrarroja son absorbidas apreciablemente. El cristalino es la lente del ojo
y sirve para enfocar, ayudado por los músculos ciliares.

f. Retina.

Es la membrana interior posterior del ojo. Cuando el ojo está enfocado, la imagen de
un objeto exterior es proyectada en la retina. Sobre su superficie se encuentran los
receptores que permiten la percepción visual: los conos y los bastones.

Los conos son entre 6 y 7 millones, se localizan principalmente en la parte central de


la retina, llamada fóvea, y son muy sensibles al color. La fóvea es una región circular
de la retina de aproximadamente 1.5 mm de diámetro.

Los músculos mueven al ojo hasta que la región de interés se localiza en la fóvea. Los
humanos somos capaces de percibir detalles muy finos gracias a que cada uno de los
conos está conectado a una terminal nerviosa.

La visión que utiliza los conos es llamada fotópica, o de luz brillante.

Los bastones son muchos más, entre 75 y 150 millones están distribuidos sobre la
superficie retinal. Esta área de distribución tan grande y el hecho de que varios están
conectados a una misma terminal nerviosa reduce su cantidad de detalle discernible.
Sirven para dar una imagen general del campo de visión. No participan en la visión
del color y son sensitivos a bajos niveles de iluminación (o visión escotópica, de luz
tenue).

Existe una región del ojo en la que no hay receptores, ya que es la región donde surge el
nervio óptico. Esta región se denomina punto ciego. Fuera de este punto, la distribución
de receptores es radial con respecto a la fóvea, como se representa en la figura 2.2

256
Figura 10.2. Distribución de conos y bastones en la retina.

Con ciertas libertades de interpretación, podemos pretender que la fóvea es un arreglo


de sensores de 1.5 mm de diámetro (un área de 1.767 mm2). La densidad de conos ahí
es de aproximadamente 150,000 elementos por mm2. Basado en esas aproximaciones,
el número de conos en la región de más agudeza en el ojo es de cerca de 265,000
elementos.

Comparando solamente el poder de resolución, un circuito de imágenes de dispositivo


CCD (charge-coupled device) de resolución media puede tener este número de
elementos en un arreglo receptor no mayor de 5 x 5 mm.

Recordar que los humanos integramos la inteligencia y la experiencia con la vista, por lo
que esta comparación sólo es válida para mostrar el hecho de que la habilidad básica de
resolución de detalle del ojo está ya desde hace algún tiempo casi en el mismo rango de
los sensores electrónicos de imágenes.

10.1.2. Formación de imágenes en el ojo.

La principal diferencia entre una lente óptica ordinaria y el cristalino es que este último
es flexible, y su forma es controlada por la tensión de las fibras del cuerpo ciliar. Para
enfocar objetos lejanos, se aplana, para enfocar objetos cercanos, se ensancha. La
distancia entre el centro del cristalino y la retina (distancia focal), varía de
aproximadamente 17mm a 14mm.

Con esta información podemos calcular el tamaño del objeto reflejado en la retina.
Consideremos la Figura 10.3.

El observador mira una palmera de 15m de altura desde una distancia de 100m (al punto
focal C). Si h es la altura en mm del objeto en la imagen retinal, por geometría
obtenemos que:
257
15/100 = h/17

Figura 10.3. Obtención del tamaño de la imagen en la retina.

Por lo tanto, h=2.55 mm, el tamaño de la palmera reflejada en la retina.

La percepción tiene lugar cuando los diferentes receptores son excitados, estos
transforman la energía radiante a impulsos eléctricos que son enviados al cerebro para
su decodificación.

10.1.3 Adaptación a la iluminación y discriminación.

Las imágenes digitales son un conjunto discreto de intensidades. Por lo tanto, tiene
sentido hablar de la capacidad de discriminación del ojo entre diferentes niveles de
intensidad.

El rango de intensidades de luz al que el ojo humano puede adaptarse es enorme (del
rango de 1010) desde el umbral escotópico hasta el límite de deslumbramiento.

Evidencia experimental ha demostrado que la iluminación subjetiva o brillo (la intensidad


luminosa como la percibe el sistema visual humano) es una función logarítmica de la
intensidad de luz que incide en el ojo.

En la Figura 10.4 se ilustra esta característica. La línea larga sólida representa el rango
de intensidades al que se puede adaptar el sistema visual. El rango en la visión fotópica
es de cerca de 106. La transición entre visión fotópica y escotópica es gradual entre los
0.001 y 0.1 millilambert (-3 a –1 mL en la escala logarítmica).

258
Figura 10.4. Rango de sensaciones de iluminación subjetiva respecto a intensidad.

Esto puede parecer impresionante, sin embargo, la verdad es que el sistema visual no
puede operar en todo este rango simultáneamente. En realidad, logra esta gran
variación con pequeños cambios de sensibilidad. A esto se le llama Adaptación a la
iluminación.

Adaptación a la iluminación.

El rango total de niveles de intensidad distintos que puede discriminar simultáneamente


es relativamente pequeño cuando se le compara con el rango total de adaptación que
hemos visto.

El nivel de adaptación para cierto conjunto de condiciones es llamado Nivel de


adaptación a la iluminación (Ba en la Figura 10.5). Este nivel está bastante restringido,
pues debajo del nivel Bb todo estímulo es percibido como negros indistinguibles unos de
otros. El nivel superior, mostrado con guiones, no está restringido, pero, si se extiende
mucho pierde el significado, ya que intensidades mayores simplemente elevarían el nivel
de adaptación Ba.

Adaptación a los cambios y cociente de Weber.

La habilidad del ojo de discriminar entre cambios de intensidad de luz en cualquier nivel
específico de adaptación también ha sido estudiada.
Un experimento clásico consiste en poner a un observador a mirar una gran área
iluminada uniformemente que ocupa su campo visual entero. Esta área es iluminada por
la parte de atrás por una fuente cuya intensidad I, puede variar.
259
Se incrementa la iluminación, ΔI, con destellos de corta duración con forma de círculo en
el centro del campo iluminado.

Si ΔI no es suficientemente brillante, el observador dirá no. Mientras ΔI crece, si el


observador lo percibe dirá sí, cuando lo perciba. Finalmente, cuando ΔI sea lo
suficientemente fuerte, el observador dirá si todo el tiempo.

La cantidad ΔIc / I, donde ΔIc es el incremento de iluminación que puede discernirse el


50% de las veces con iluminación I, se llama cociente de Weber.

Un valor pequeño de este cociente indica que un cambio de porcentaje pequeño en


intensidad puede distinguirse, es decir, buena discriminación de iluminación. Un valor
grande quiere decir que se necesita un gran cambio en intensidad para poder
distinguirlo. Es decir, mala discriminación.

Figura 10.5. Cociente de Weber como función de la intensidad.

La Figura 10.5 muestra una gráfica de log ΔIc / I como función de log I. La curva muestra
que la discriminación de iluminación es mala (el cociente de Weber es grande) con bajos
niveles de iluminación, pero crece significativamente cuando se aumenta la iluminación
de fondo.

Las dos ramas de la curva reflejan el hecho de que los niveles bajos de iluminación son
manejados por bastones, y los altos – con mejor discriminación – por los conos.

260
Si la iluminación de fondo permanece constante y la intensidad de la otra fuente de luz
varía incrementalmente en lugar de por destellos, el observador típico podrá discernir un
total de entre una y dos docenas de cambios de intensidad.

Esto no significa que una imagen pueda ser representada por un número tan pequeño
de valores de intensidad porque, mientras el ojo recorre la imagen, el fondo promedio
cambia, permitiendo la detección de un conjunto diferente de cambios incrementales con
cada nivel de adaptación.

La consecuencia es que el ojo es capaz de un rango bastante más amplio de


discriminación de intensidad en total, como veremos más adelante.

10.2. La luz y el espectro electromagnético.

En 1666, Isaac Newton descubrió que, al pasar un rayo de luz por un prisma de vidrio, el
rayo de salida no es blanco, sino que está compuesto de un espectro de colores
continuo, que va desde el violeta hasta el rojo.

El rango de colores que percibimos no es sino una muy pequeña parte del espectro
electromagnético (EEM). En un extremo del espectro se encuentran las ondas de radio
con longitudes de onda mil millones de veces más largas que los de la luz visible. En el
otro están los rayos gama con longitudes de onda millones de veces más pequeños que
los de la luz visible.

Figura 10.6. Espectro electromagnético en unidades de energía, frecuencia y longitud


de onda.

Como se ve en la Figura 10.6, el espectro puede definirse en términos de longitud de


onda (λ) en metros, frecuencia (ν) en Hertz, o energía (E) en electrón volts. La longitud
de onda y la frecuencia se relacionan por:

261
λ=c/ν

Donde c es la velocidad de la luz (2.998 x 108 m/s).

Y la energía está dada por

E = hv

Donde h es la constante de Planck (6.626 –34 J.s).

Ondas electromagnéticas y fotones.

Las ondas electromagnéticas se pueden visualizar como ondas sinusoidales propagadas


de longitud de onda λ, o como una corriente de partículas sin masa viajando en un
patrón con forma de onda y moviéndose a la velocidad de la luz. Cada partícula sin
masa contiene cierta cantidad (o paquete) de energía. Los paquetes de energía se
llaman fotones.

La energía es proporcional a la frecuencia: a más frecuencia, más energía por fotón.

Luz visible.

La luz es un tipo particular de radiación electromagnética que puede ser detectada por el
ojo humano. La banda visible del EEM se extiende en un rango de aproximadamente
0.43 μm (violeta), a 0.79 μm (rojo).

Figura 10.7. Rango visible del espectro electromagnético.

Los colores que percibimos en un objeto son determinados por la naturaleza de la luz
reflejada por dicho objeto.

Un cuerpo reflejante que está balanceado en todas las longitudes de onda visibles
aparece blanco para el observador. Un cuerpo que refleja un rango en particular del
espectro visible se ve de cierto color (p. Ej. Los objetos que se ven de color verde
absorben la energía en todas las longitudes de onda excepto en la de los tonos de
verde, de 500 a 570 nm, ésta la reflejan).

Luz monocromática.
262
La luz que no tiene color se llama acromática o monocromática. Su único atributo es su
intensidad o cantidad. En general usamos el término nivel de gris para definir la
intensidad monocromática porque ésta va desde el negro hasta el blanco pasando por
una gama de grises.

Luz cromática.

Es la luz de color, ya descrita. Se usan 3 cantidades para describir la calidad de una


fuente cromática:

1. Radiancia.

Cantidad total de energía que fluye de una fuente de luz. Se mide en watts.

2. Luminancia.

Cantidad de energía que un observador percibe de una fuente de luz. Se mide en


lúmenes.

3. Brillo.

Es la iluminación subjetiva, ya vista anteriormente. Es casi imposible de medir y engloba


la noción de intensidad.

Limitación fundamental de la capacidad de los sensores.

En principio, si se puede desarrollar un sensor capaz de detectar energía radiada por


una banda del EEM, se pueden obtener imágenes de esa banda.

Sin embargo, se requiere que la longitud de onda de una onda EM sea del mismo
tamaño o más pequeña que el objeto a detectar (por ejemplo, una molécula de agua
tiene un diámetro del orden de 10-10m. Entonces se requiere una fuente capaz de emitir
luz en el extremo lejano del ultravioleta o los rayos X suaves).

10.3 Adquisición de imágenes.

Los tipos de imágenes que nos interesan se generan por una combinación de una fuente
de iluminación y la reflexión o absorción de energía de esta fuente por parte de los
elementos de la escena.

Recordar que esta iluminación puede ser también radar, infrarrojo, o alguna fuente que
no es parte del EEM., como ultrasonido.

Dependiendo de la naturaleza de la fuente, la energía luminosa puede ser reflejada o


transmitida por los objetos.

263
En algunas aplicaciones, la energía transmitida o reflejada se enfoca a un
fotoconvertidor (Una pantalla de fósforo) que convierte la energía a luz visible.

En la Figura 10.7 se muestran los 3 principales arreglos de sensores utilizados para


transformar energía luminosa en imágenes digitales.

Figura 10.8. Tipos de sensores: sencillo, en línea y en arreglo.

El proceso en todos ellos es simple: La energía entrante se transforma a un voltaje por la


combinación de electricidad de entrada y el material del sensor, sensible al tipo de
energía que se quiere detectar. La onda de voltaje de salida es la respuesta del sensor,
y una cantidad digital se obtiene de cada sensor digitalizando su respuesta.

264
10.3.1. Adquisición con un solo sensor.

El sensor más familiar de este tipo es el fotodiodo, de silicón, cuyo voltaje de salida es
proporcional al de la luz. A veces se utiliza un filtro frente al sensor para mejorar la
selección de ciertas longitudes de onda (Un filtro verde favorece la banda verde del
espectro).

Para generar una imagen 2D, se requieren desplazamientos relativos en las direcciones
X y Y del área a capturar. En la figura vemos un sensor montado en un tornillo que le da
movimiento en dirección perpendicular. Este método es una manera barata pero lenta de
obtener imágenes de alta resolución.

Arreglos similares usan una cama plana (flat bed), con el sensor moviéndose en 2
direcciones lineales. A este tipo de sensores se les llama microdensitómetros.

Figura 10.9. Se combina un sensor único con movimiento para generar una imagen 2D.

Otro tipo de sensor único utiliza una fuente de láser coincidente con el sensor, con
espejos utilizados para controlar el láser de salida en un patrón de escaneo, y para dirigir
la señal reflejada al sensor.

10.3.2. Adquisición con bandas o líneas de sensores.

Es un arreglo de sensores en línea, formando una banda que provee elementos de la


imagen en una dirección. La dirección perpendicular se obtiene por el movimiento de la
banda. Este es el tipo de arreglo utilizado en la mayoría de los escáneres de cama.

265
Se utilizan rutinariamente en aplicaciones de imágenes aéreas, en las que el movimiento
perpendicular es dado por el movimiento del avión. Se utilizan lentes u otro tipo de
esquemas de enfoque para proyectar el área a escanear en los sensores.

Figura 10.11. Sensores en línea y en línea circular.

También existe la configuración de anillo, en la que la fuente rota y los sensores están
en el lado opuesto, colectando la energía que pasa a través del objeto. Esta es la base
de la tomografía Axial Computarizada (CAT), la resonancia magnética (MRI), y la
tomografía por emisión de positrones (MRI).

Nótese que la salida de los sensores debe ser procesada por algoritmos de
reconstrucción cuyo objetivo es transformar los datos en imágenes de cortes que tengan
sentido.

10.3.3. Adquisición por arreglos de sensores.

Numerosos aparatos de sensado electromagnéticos y algunos ultrasónicos


frecuentemente se ordenan en forma de arreglos.

266
Un punto histórico en la tecnología de sensores de imágenes fue la invención de
arreglos de semiconductores fotodetectores. El más común es el CCD (Charge-coupled
Device), que consiste en un gran número de elementos fotosensibles ordenados en
forma de arreglo. Estos funcionan en 2 fases.

En la fase de acumulación, cada elemento recoge cargas eléctricas generadas por


fotones absorbidos (la carga acumulada es proporcional a la iluminación). En la fase de
lectura, estas cargas se transportan secuencialmente en todo el circuito de sensor a
sensor y son finalmente convertidas a un voltaje eléctrico.

Figura 10.12. Vista al microscopio de un CCD de Sony y 2 presentaciones del CCD de


Kodak.

Tamaño de pixel
Dispositivo Pixeles (HxV) (H x Vμm)
KAF-0261E 512 x 512 20.0 x 20.0
KAF-0402E(/ME) 768 x 512 9.0 x 9.0
KAF-1001E 1024 x 1024 24.0 x 24.0
KAF-1301E(/LE) 1280 x 1024 16.0 x 16.0
KAF-1402E(ME) 1320 x 1037 6.8 x 6.8
KAF-1602E(/LE) 1536 x 1024 9.0 x 9.0
KAF-1603ME 1536 x 1024 9.0 x 9.0
KAF-3200E(ME) 2184 x 1472 6.8 x 6.8
KAF-4301E 2084 x 2084 24.0 x 24.0
KAF-4320E 2092 x 2092 24.0 x 24.0
KAF-6303E(/02LE) 3088 x 2056 9.0 x 9.0
KAF-16801E(/LE) 4096 x 4096 9.0 x 9.0
Tabla 10..1 Algunos sensores CCD comerciales de Kodak (“full frame”, 2004).
Recientemente los sensores CMOS han atraído la atención por la calidad de su imagen
y la uniformidad de la sensibilidad de sus elementos, que se acercan a la calidad del
CCD. Sus ventajas sobre el CCD son que consumen menos energía, sus subáreas se
accesan rápidamente, y se pueden añadir a circuitos (cámaras de un solo chip).

267
Figura 10.13. Sensores CMOS.

Tamaño de pixel
Dispositivo Pixeless (HxV) (H x Vμm)
KAC-9618 648 x 488 7.5 x 7.5
KAC-9619 648 x 488 7.5 x 7.5
KAC-9628 648 x 488 7.5 x 7.5
KAC-9630 128 x 98 20 x 20
KAC-9637 648 x 488 6x6
KAC-9638 1,288 x 1,032 6x6
KAC-9647 648 x 488 6x6
KAC-9648 1,288 x 1,032 6x6

Tabla 10.2. Algunos sensores CMOS comerciales de Kodak (2004).

Características de los sensores semiconductores.

 La distorsión geométrica es inexistente.


 Son pequeños y aguantadores. Soportan campos magnéticos, vibraciones.
 Tienen una alta sensibilidad. Algunos CCD, si son enfriados de manera especial,
pueden ser expuestos por horas y son cerca de 100 veces más sensibles que el
material fotográfico.
 Hay una amplia variedad (ver tablas).
 No están limitados al rango visible (los sensores de silicón tienen un rango entre los
200 nm (ultravioleta) y los 1100 nm (Infrarrojo cercano). Sin embargo sensores de
otros materiales pueden detectar incluso rayos X).

La ventaja de los arreglos es que una imagen completa puede obtenerse con sólo
enfocar el patrón de energía en la superficie del arreglo (no requiere movimiento).

268
Figura 10.14. Ejemplo del proceso de adquisición de una imagen digital.

El proceso se explica en la Figura 10.14:

La energía de la fuente de iluminación es reflejada o transmitida por un elemento de la


escena, la energía obtenida se colecta y se enfoca al plano focal(en el caso de luz, por
medio de una lente).

El arreglo de sensores produce salidas proporcionales a la integral de la luz recibida en


cada sensor.

Circuitería analógica y digital convierte estas salidas a señal de video, que se digitaliza
para dar como resultado una imagen digital.

10.3.4. Un modelo simple de formación de imágenes.

Una imagen puede ser representada por una función bidimensional de la forma f(x, y),
en donde el valor o amplitud de f en las coordenadas espaciales (x,y) da la intensidad de
la imagen en ese punto.

Cuando la imagen se genera a partir de un proceso físico, sus valores son


proporcionales a la energía radiada por la fuente física (p. Ej. Ondas EM). Como
consecuencia, f(x,y) debe ser diferente de cero y finita. Esto es:

0 < f(x,y) < ∞

269
La función f(x,y) se caracteriza por dos componentes:

Función f(x,y) se caracteriza por dos componentes:

1) Iluminación: la cantidad de luz incidente procedente de la fuente sobre la escena.


2) Reflectancia: la cantidad de luz reflejada por los objetos de la escena.

Las dos se combinan para formar el producto:

f(x,y) = i(x,y)r(x,y)

donde

0 < i(x,y) < ∞

0 < r(x,y) < 1

Esta desigualdad indica que la reflectancia está acotada entre 0 (absorción total) y 1
(reflexión total).

La naturaleza de i(x,y) está determinada por la fuente de iluminación, y la de r(x,y), por


las características de los objetos.

Esto se aplica también al caso en que las imágenes se forman por la transmisión de la
iluminación por el medio, como en los rayos X. En ese caso la segunda componente
sería de capacidad de transmisión y no reflectancia.

Nivel de gris y escala de grises.

A la intensidad de una imagen monocromática f en las coordenadas (x, y) se le


denomina nivel de gris (l) de la imagen en ese punto.

l = f(x0, y0)

de las ecuaciones anteriores se deduce que l está en el rango

Lmin <= l <= Lmax

Al intervalo [Lmin, Lmáx] se le denomina escala de grises. Una práctica habitual consiste
en desplazar este intervalo hasta el intervalo [0, L], donde l = 0 se considera negro y l =
L - 1 se considera blanco (todos los valores intermedios son tonos de gris).

10.4. Muestreo y cuantificación.

270
Ya se ha visto que hay muchas maneras de adquirir imágenes, pero el objetivo siempre
es el mismo: generar imágenes digitales desde datos detectados con sensores.

Para crear una imagen digital, se requiere convertir los datos detectados a forma digital,
esto involucra los procesos de muestreo y cuantificación.

10.4.1. Conceptos básicos de muestreo y cuantificación.

La idea básica detrás de estos dos conceptos se ilustra en la Figura 10.15.

Una imagen puede ser continua tanto respecto a sus coordenadas X y Y, como a su
amplitud. Para convertirla a forma digital, hay que digitalizarla en los dos aspectos
(espacialmente y en amplitud).

La digitalización de las coordenadas espaciales (x, y) se denomina muestreo de la


imagen y la digitalización de su amplitud se conoce como cuantificación.

La función bidimensional mostrada en la segunda figura es una gráfica de los valores de


amplitud (el nivel de gris) de la imagen continua en la primera figura a lo largo del
segmento de línea AB. Las variaciones aleatorias se deben a ruido de la imagen.

Para muestrear esta función, tomamos muestras a espacios iguales a lo largo de AB,
indicadas por los cuadritos blancos. El conjunto de estos cuadritos nos da la función
muestreada.

Sin embargo, los valores de las muestras aún se encuentran en un rango continuo de
valores de niveles de gris. Para obtener una función digital, debemos convertir
(cuantificar) los valores de gris a cantidades discretas. Esto se hace simplemente
asignando uno de los ocho valores de la figura a cada muestra.

La última figura muestra las muestras digitales que resultan del muestreo y
cuantificación.

271
Figura 10.15. Muestreo y cuantificación: a) Imagen original b) Amplitud a lo largo de AB
c) Muestreo d) Cuantificación.

En la práctica, el método de muestreo está determinado por el orden de los sensores


utilizados para generar la imagen. Por ejemplo, si se utiliza una banda de sensores, el
número de sensores en la banda establece las limitaciones de muestreo en una de las
direcciones. Si se usa un arreglo de sensores, el número de sensores del arreglo
establece las limitaciones de muestreo en ambas direcciones.

Claramente, la calidad de una imagen digital se determina en gran manera por el


número de muestras y niveles de gris utilizados en el muestreo y cuantificación.

10.4.2 Representación de imágenes digitales.


272
La salida del muestreo y cuantificación es una matriz de números reales. Los
representaremos de 2 maneras:

Una imagen continua f(x,y) se describe de forma aproximada por una serie de muestras
igualmente espaciadas organizadas en forma de una matriz N x M como se indica en la
siguiente matriz, donde cada elemento de la misma es una cantidad discreta:

El término de la derecha representa lo que comúnmente se denomina una imagen


digital. Cada uno de sus elementos es un elemento de la imagen, o pixel.

Algunas veces se representa con una notación de matrices más tradicional:

No se requiere un valor especial de M y N, salvo que sean enteros positivos. En el caso


del número de niveles de gris, éste es usualmente una potencia entera de 2:

L=2 k

El número b de bits necesarios para almacenar una imagen digitalizada e:

b=NxMxk

cuando M = N:

273
b=N 2 k

10.4.3. Resolución espacial y resolución en niveles de gris.

El muestreo es el factor principal para determinar la resolución espacial de una imagen.


Básicamente, la resolución espacial es el grado de detalle discernible en una imagen.

La resolución de nivel de gris se refiere al más pequeño cambio discernible en nivel de


gris, aunque, como ya lo habíamos señalado, medir los cambios discernibles en niveles
de intensidad es un proceso altamente subjetivo.

La potencia de 2 que determina el número de niveles de gris es usualmente 8 bits, es


decir, 256 diferentes niveles de gris. Algunas aplicaciones especializadas utilizan 16 bits.

Usualmente decimos que una imagen digital de tamaño M x N con L niveles de gris tiene
una resolución espacial de M x N pixeles y una resolución de nivel de gris de L niveles.

En el primer ejemplo vemos una imagen con resolución espacial de 1024 x 1024 y 8 bits
para representar los niveles de gris. Las imágenes siguientes han sido submuestreadas
a partir de esta primera imagen, y se han agrandado para comparar los resultados.

El submuestreo consistió en eliminar un número apropiado de columnas y renglones de


la imagen original. Por ejemplo, en la segunda imagen se borraron una columna y un
renglón sí y uno no, obteniéndose una imagen de la mitad del tamaño, 512 x 512.

Nótese que, a partir de la tercera imagen, de 256 x 256, aparece un fino patrón de
tablero de ajedrez, también llamado pixelado en los bordes de la flor. Este patrón se va
haciendo más notorio hasta llegar a la última imagen, de 32 x 32.

274
Figura 10.16. Imagen de 1024x1024 original y sus submuestreos (ampliados al tamaño
de la primera) de 512x512, 256x256, 128x128, 64x64 y 32x32

En el segundo ejemplo (Figura 10.17), se tiene una imagen TAC con el mismo número
de muestras (resolución espacial constante), pero reducimos el número de niveles de
gris desde 256 a 2, en potencias enteras de 2. Notar que, a partir de la cuarta imagen,
con 32 niveles, un casi imperceptible conjunto de manchas delimitadas en áreas suaves
de niveles de gris. Este efecto es llamado falso contorno.

275
Figura 10.17. Imagen 472 x 374 en 256, 128, 64, 32, 16, 8, 4 y 2 niveles de gris.

Un mínimo tamaño aproximado en el que una imagen estará libre de falsos contornos y
pixelados será 256 x 256 con 64 niveles de gris.

10.4.4. Aliasing y patrones de Moiré.

Las funciones cuya área bajo la curva es finita, pueden ser representadas en términos
de senos y cosenos de varias frecuencias (Fourier). El componente seno/coseno de más
alta frecuencia determina el contenido en frecuencia más alto de la función.

Suponga que la más alta frecuencia es finita y que la función no tiene una duración
limitada (lo que se llama una función limitada en banda). El teorema de muestreo de
Shannon nos dice que, si la función se muestrea a un ritmo igual o mayor que el doble
de su más alta frecuencia, es posible recobrar completamente la función original a partir
de sus muestras. Es imposible satisfacer el teorema de muestreo en la práctica. Sólo se
puede trabajar con datos muestreados de duración finita. Sin embargo, hay un caso
especial, cuando la función es periódica, esta puede ser muestreada a un ritmo mayor o
igual al doble de su frecuencia más rápida, y es posible recobrar la función a partir de
sus muestras si el muestreo captura exactamente un número entero de periodos de la
función.

276
Si la función se submuestrea, el fenómeno conocido como aliasing corrompe la imagen
muestreada (esta corrupción tiene la forma de componentes adicionales de frecuencia
que se introducen en la función muestreada, llamadas frecuencias de aliasing).

El ritmo de muestreo en imágenes es el número de muestras tomadas (en las dos


direcciones) por unidad de distancia.

El efecto de las frecuencias de aliasing puede ser apreciado bajo ciertas condiciones en
la forma de los llamados patrones de Moiré.

Figura 10.18 Ilustración del efecto de patrones de Moiré.

10.4.5. Cambiando el tamaño de la imagen.

Ampliar una imagen puede ser visto como sobremuestreo, y encogerla como
submuestreo. Sin embargo, la diferencia entre estas dos operaciones y el muestreo y
cuantificación de una imagen continua es que el cambio de tamaño se aplica a una
imagen digital.

Ampliar requiere 2 pasos:

 La creación de nuevos lugares para pixeles.


 la asignación de niveles de gris a esos nuevos pixeles.

277
Suponiendo que se tiene una imagen de 500x500 que se desea agrandar 1.5 veces a
750x750 pixeles. Una de las maneras más fáciles de visualizar el proceso es sobreponer
una malla imaginaria de 750x750 a la imagen original. Para asignar niveles de gris a
cada punto en la malla sobrepuesta, se busca el pixel más cercano en la imagen original
y se le asigna su nivel de gris al pixel de la malla. Este método de asignación de nivel de
gris se llama interpolación por vecino más cercano.

Un caso especial de la interpolación del vecino más cercano es la replicación de pixeles.


Se puede aplicar cuando queremos aumentar el tamaño de la imagen un número entero
de veces. Por ejemplo, si se desea doblar el tamaño de la imagen, se duplica cada
columna y a partir de la imagen resultante se duplica cada renglón.

La reducción de la imagen se logra con un proceso parecido. Si se desea reducir la


imagen a la mitad, se borra una columna sí y una no y lo mismo con los renglones. Si se
desea reducirla por un número no entero, se va a expandir la malla de que se habló
antes, de manera que sea del mismo tamaño que la imagen original, y se aplicas la
interpolación por vecino más cercano.

10.5. Algunas relaciones básicas entre pixeles.

10.5.1. Vecinos de un pixel.

Un pixel p en las coordenadas (x,y) tiene cuatro vecinos horizontales y verticales dados
por:

(x + 1, y), (x – 1, y), (x, y + 1), (x, y – 1)

Este conjunto de pixeles, llamados los 4 vecinos de p, se denota como N4(p). Cada pixel
es una unidad de distancia desde (x,y), y algunos de los vecinos de p están fuera de la
imagen digital si (x,y) está en el borde de la imagen.

Los cuatro vecinos diagonales de p tienen las coordenadas:

(x + 1, y + 1), (x + 1, y – 1), (x – 1, y + 1), (x – 1, y – 1)

y se denotan como ND(p). Estos puntos, junto con los 4 vecinos, son llamados los 8
vecinos de p, y se escriben N8(p). Algunos de ellos estarán fuera de la imagen si (x,y)
está en el borde de la imagen.

10.5.2. Conectividad, regiones y fronteras.

La conectividad entre pixeles es un concepto fundamental que simplifica la definición de


numerosos conceptos de la imagen digital, como regiones y fronteras.

278
Para establecer si 2 pixeles están conectados, se debe determinar si son vecinos y si
sus niveles de gris satisfacen un criterio predeterminado de similaridad (si sus niveles de
gris son iguales).
En una imagen binaria (con valores 0 y 1) 2 pixeles pueden ser 4 vecinos, pero sólo se
dice que están conectados si tienen el mismo valor.

Conectividad.

Sea V el conjunto de valores de niveles de gris que definen la conectividad.


Consideremos 3 tipos de conectividad:

a) 4-conectividad. 2 pixeles p y q con valores en V son 4-adyacentes si q está en el


conjunto N4(p).
b) 8-conectividad. 2 pixeles p y q con valores en V son 8-adyacentes si q está en el
conjunto N8(p).
c) m-conectividad (conectividad mixta). 2 pixeles p y q con valores de V son m-
adyacentes si:
1 – q está en N4(p), o
2 – q está en ND(p) y el conjunto N4(p) INTERSECCIÓN N4(q) no tiene pixeles con
valores de V.

La conectividad mixta es una modificación de la 8-conectividad que se introduce para eliminar


las ambigüedades que surgen al utilizar 8-conectividad.

A manera de ejemplo, considérese el arreglo de pixeles de la figura para V = {1}. Los 3


pixeles en la parte superior muestran múltiple 8-conectividad (ambigua), como se indica
con las líneas punteadas. Esta ambigüedad desaparece al utilizar m-conectividad.

Figura 10.18. La ambigüedad en 8-conectividad desaparece al utilizar 4-conectividad.

Caminos, componentes conexas, conjuntos conectados, regiones.

Un camino de un pixel p con coordenadas (x, y) a un pixel q con coordenadas (s, t) es la


secuencia de distintos pixeles con coordenadas

(x0, y0), (x1, y1), ... , (xn, yn)

donde (x0, y0) = (x, y) y (xn, yn) = (s, t) y los pixeles (xi, yi) y (xi-1, yi-1) son adyacentes
para todo 1<= i <= n. En este caso, n es la longitud del camino. Si (x0, y0) = (xn, yn), el
camino es un camino cerrado.
279
Sea S un subconjunto de pixeles en una imagen. Se dice que 2 pixeles p y q están
conectados en S si existe un camino entre ellos que consiste enteramente de pixeles en
S. Para cada pixel p en S, el conjunto de pixeles que está conectado a él en S se
denomina componente conexa de S. Si sólo tiene un componente conexo, entonces el
conjunto S se denomina conjunto conectado.

Sea R un subconjunto de pixeles en una imagen. Llamamos R una región de la imagen


si R es un conjunto conectado. La frontera (también llamada borde o contorno), de una
región R es el conjunto de pixeles de la región que tienen uno o más vecinos que no
están en R.

Medidas de distancia.

Para los pixeles p, q y z con coordenadas (x,y), (s,t) y (v, w), respectivamente, D es una
función de distancia o métrica si:

(a) D (p, q) >= 0 (D(p,q) = 0 sí y sólo sí p = q)


(b) D (p, q) = D (q, p), y
(c) D (p, z) <= D (p, q) + D(q, z)

La distancia euclidiana entre p y q se define como:

1
2 22
D e ( p . q ) =x−s + y−t

Lo que significa que los pixels que tienen una distancia menor o igual al valor de r desde
(x,y) son los que contiene un disco de radio r con centro en (x,y).

La distancia D4 (city-block) entre p y q se define como:

D4 (p, q) = |x - s| + |y - t|

En este caso, los pixeles que tienen una distancia D4 desde (x,y) de menor o igual ,valor
a r forman un diamante centrado en (x, y). Por ejemplo, los pixeles con distancia D4 <= 2
desde (x, y) (el punto central) forman los contornos con distancia constante siguientes:

2
212
21012
212
2
Los pixeles con D4 = 1 son los 4-vecinos de (x,y).

La distancia D8 (también llamada distancia de tablero de ajedrez) entre p y q se define


como:
280
D8(p, q) = max (|x - s|, |y - t|)

En este caso, los pixeles con distancia D8 menor o igual al valor r forman un cuadrado
centrado en (x, y). Por ejemplo, los pixeles con distancia D8 <= 2 desde (x,y), el punto
central, forman los contornos con distancia constante siguiente:

22222
21112
21012
21112
22222

Los pixeles con distancia D 8son los 8-vecinos de (x,y).

Nótese que las distancias D4 y D8entre p y q son independientes de cualquier camino


que pueda existir entre los puntos porque estas distancias involucran solamente las
coordenadas de los puntos. Si se considera m-conectividad, la distancia Dm entre 2
puntos se define como el m-camino más corto entre los puntos. En este caso la distancia
entre 2 pixeles no sólo depende de los valores de los pixeles en el camino, sino también
de los valores de sus vecinos.

Considérese el siguiente arreglo de pixeles y asúmase que p, p2 y p4 tienen valor 1 y p1


y p3 pueden tener valor de 0 o 1

p3 p4
p1 p2
p

Suponer que se considera la conectividad de pixeles que valen 1 (V = {1}). Si p1 y p3


son 0, la longitud del m-camino más corto (la distancia Dm) entre p y p4 es 2. Si p1 es 1,
entonces p2 y p no serán m-adyacentes y la longitud del m-camino más corto es ahora
3. Finalmente, si p1 y p3 valen 1, la longitud del m-camino más corto entre p y p4 es 4.
En este caso, el camino pasa por la secuencia de puntos p p1 p2 p3 p4.

REFERENCIAS BIBLIOGRÁFICAS

Aidley, DJ. The physiology of excitable cells. London: Cambridge University Press, 1983.
Conway, EJ. Nature and significance of concentration relations of potassium and sodium
ions in skeletal muscle. Physio,l Rev. 1957.
281
Beebe D. Signal Conversion. Biomedical Digital Signal Processing. Editorial Prentice
Hall. University of Wisconsin. Madison, Wisconsin E.U.A. 1993.

Booch, G. Análisis y Diseño Orientado a Objetos con Aplicaciones. Segunda edición,


Adisson Wesley / Díaz de Santos, 1995.

D. Jennings, A. Flint, B.C.H. Firton and L.D.M. Nokes. Introduction to Medical Electronics
Applications. School of Engineering University of Wales, College of Cardiff. London,
1995.

Edman, A, Grampp, W. Ion permeation through hyperpolarization-activated membrane


channels (Q-channels) in the lobster stretch receptor. Pjlugers Arch 1989.

Enderle, J., Blanchard, S.,Bronzino, J. Introduction to Biomedical Engineering. Academy


Press, New York, 2000.

Goldman, DE. Potential, impedance and rectification in membranes. J Gen Physiol 1943.

Hernández, M., Fernández, O. Adquisición y Presentación de Señales Biomédicas


Utilizando Programación Basada en Multihebras. Tendencias Actuales en Bioingeniería.
Sociedad Venezolana de Bioingeniería. Ramírez C - Bravo A Editores. VI Coloquio
Nacional de Bioingeniería, UNET. San Cristóbal, Estado Táchira. 2000.

Hodgkin, AL, Horowitz, Y. The influence of potassium and chloride ions on the
membrane potential of single muscle Fibres. J Physiol Lond. 1959.

Hodgkin, AL, Katz, B. The effects of sodium ions on the electrical activity of the giant
axon of squid. J Physiol Lond. 1949.

Hodgkin, AL, Keynes, RD. Active transport of captions in giant axons from sepia and
loligo. J Physiol Lond 1955.

Hodgkin, AL, Rushton, WAH. The electrical constants of crustacean nerve fibre. Proc
Roy Soc 1946.

Junge, D. Nerve and muscle excitation. Sunderland: Sinauer Associates; 1992.

Kandel, ER. Cellular basis of behaviour. An introduction to behavioral neurobiology. San


Francisco: WH Freeman; 1976

Katz, B. Nerve muscle and synapse. New York: McGraw-Hill; 1966.

Myer, Kutz. Standard Hand book of Biomedical Engineering and Design. McGraw-Hill,
New York, Chicago, San Francisco, Lisbon, London, Madrid, Mexico City, Milan, New
Delhi, San Juan, Seoul,Singapore, Sydney, Toronto. 2003.

282
Moore, J, Zouridakis, G., Biomedical Technology and Devices Hand Book. Boca Raton
London New York Washington, D.C. 1999.

Olson, W. Basic Concepts of Medical Intrumentation. Medical Instrumentation, 2004.


Application and Design. John G. Webster Editor. Third Edition. New York, E.U.A. 1998.

Pallas, R. Transductores Bioeléctricos. Introducción a la Bioingeniería. Varios autores


bajo la coordinación de Mompin J. Serie Mundo Electrónico, Editorial Marcombo.
Barcelona, España. 1988.

Ramirez-Rodriguez, C., Vladimirova T. A hierarchical fuzzy neural system for ECG


classification. En 3rd European, Congress on Intelligent Techniques and Soft Computing
(EUFIT'95). Acchen, Alemania, Pag. III 1668-1672, agosto 1995.

Ramírez-Rodríguez, C.A. Detección de Episodios de fibrilación auricular utilizando redes


neurales multicapa. En I Congreso Venezolano de Ingeniería Eléctrica.
Mérida,Venezuela, Octubre 1998.

Semmlow, John l., Robert Wood Johnson Medical School, New Brunswick, New Jersey,
U.S.A., Rutgers University Piscataway, New Jersey, U.S.A. Biosignal and Biomedical
Image Processing MATLAB-Based Applications. New York, 2004.
.
Thomas, RC. Membrane current and intracelular sodium changes in a snail neuron
during extrusion of injected sodium. J Physiol Lond 1969.

Valentinuzzi, M. Objetivos de la Bioingeniería. Introducción a la Bioingeniería. Varios


autores bajo la coordinación de Mompin J. Serie Mundo Electrónico, Editorial Marcombo.
Barcelona, España. 1988.

283

También podría gustarte