Documentos de Académico
Documentos de Profesional
Documentos de Cultura
BIOINGENIERÍA
Profesor:
1
CAPÍTULO 1
CONCEPTOS BÁSICOS DE LA
INSTRUMENTACIÓN BIOMÉDICA
Introducción
La definición de Bioingeniería parte del prefijo bio que significa vida. La Bioingeniería
puede subdividirse en diferentes áreas como la Bioelectrónica o biomecánica. Luego
puede observarse que la Bioelectrónica es la rama de la ingeniería electrónica que se
aplica a los seres vivos en lugar de a los componentes físicos electrónicos. La
Bioinstrumentación obtiene medidas de variables fisiológicas de seres vivos para su
posterior procesamiento y obtención de resultados que determinan el estado del mismo.
Para definir todos los términos relacionados con la bioingeniería, se han creado
numerosas asociaciones profesionales tales como IEEE Engineering in Medicine and
Biology Group, el ASME Biomechanical and Human Factors Division, la Instrument
Society of America, el American Institute of Aeronautics and Astronautics y otras.
2
La ingeniería de Factores Humanos que es la aplicación de la ingeniería, fisiología
y psicología a la optimización de las relaciones hombre-máquina.
1.1.1. Sensor.
CONTROL Y REALIMENTACIÓN
ALIMENTACIÓN
TRANSDUCTOR
CALIBRACIÓN
4
El resultado del proceso de medida puede mostrarse de diferentes formas, pero es
conveniente que estos resultados se muestren de la forma más sencilla y cómoda de
interpretar por parte del operador humano. En función del tipo de medida y cómo el
operador humano va a utilizarla, los resultados pueden representarse por medio gráficos
o datos numéricos, de forma continua o discreta, de manera temporal o permanente.
Aunque la mayoría de los dispositivos de salida dan una información visual, existen
equipos que pueden generar otro tipo de informaciones (pitidos, diferentes sonidos).
La fuente de las señales medidas con la instrumentación biomédica son los tejidos vivos
o energía aplicada a éstos. Esta circunstancia condiciona los métodos de medida
aplicables y los sensores o transductores a utilizar. Para ello deben cumplirse los
siguientes requisitos:
2. Hay que garantizar la seguridad del paciente. La acción de medir no debe poner en
peligro innecesariamente la vida del paciente. Ante la inaccesibilidad de muchas
medidas se recurre a medidas indirectas en las cuales se sensa otra magnitud
relacionada con la deseada (por ejemplo, para medir la presión sanguínea suele
sensarse la variación de volumen de un miembro cuando lo atraviesa la sangre
utilizando técnicas de pletismografía. Si la variable medida es el resultado de aporte
de energía al tejido vivo, hay que respetar los límites aceptados como seguros
(radiografía). La seguridad también exige que los sensores sean de fácil esterilización
o de usar y tirar, y no posean recubrimientos agresivos que puedan provocar
reacciones al entrar en contacto con el paciente.
2. Considerando el entorno de trabajo donde se van a ubicar los equipos, éstos deben
ser robustos, fiables y de fácil calibración. Otra característica que diferencia a la
5
instrumentación biomédica de la industrial es que las variables biomédicas rara vez
son determinísticas y éstas varían enormemente de unas personas a otras. También
es habitual, que en una medida de una señal biológica influyan otras señales que
constituyen una interferencia (estas interferencias pueden deberse a otras variables
fisiológicas o propias del equipo de medida). Su supresión es uno de los objetivos
fundamentales en el diseño de un sistema de medida utilizándose para ello las
técnicas habituales en instrumentación.
Las señales que transportan la información medida pueden ser análogas o digitales.
Normalmente los sensores funcionan en modo análogo, aunque también existe el modo
digital. En los últimos años, ha aumentado el uso de sistemas que trabajan el modo
digital con lo que se utilizan conversores análogo-digitales y digital-análogos como
interfaces entre los sensores y dispositivos de salida análogos y los procesadores
digitales. Las ventajas del modo digital incluyen mayor precisión, repetitividad, fiabilidad
6
e inmunidad a ruidos. Los dispositivos de salida digitales se van imponiendo a los
análogos, si bien en muchas aplicaciones se prefieren los análogos cuando hay que
determinar si la variable medida está dentro de unos límites y ésta varía rápidamente
como el latido del corazón. En este caso, la representación digital cambia los números
tan rápidamente que no pueden casi apreciarse.
Los sensores deben adquirir las señales en tiempo real. La salida de los sistemas de
salida puede no mostrar los resultados inmediatamente puesto que se puede requerir
diferentes procesamientos o transformaciones para obtenerlos. A menudo, estos
retardos en presentar los resultados pueden admitirse a no ser que se requiera una
realimentación o control urgente de una tarea en función de la salida.
7
Electroencefalograma 5-300 µV dc-150 Electrodos en el cuero
(EEG) cabelludo
Las variables medidas en el cuerpo humano rara vez son determinísticas. Sus
magnitudes varían con el tiempo, incluso teniendo controladas todas las variables que
pueden aceptarle. La mayoría de las medidas biomédicas varían ampliamente entre
diferentes pacientes normales, incluso en condiciones similares de medida. Existen
numerosos lazos de realimentación entre diferentes variables fisiológicas y todavía
muchos de ellos no se conocen suficientemente. El método más común para asumir esta
8
variabilidad de las medidas y poder compararlas con otras es utilizar funciones de
distribución estadísticas y probabilísticas.
Hoy en día, todas las medidas biomédicas dependen de alguna forma de energía que se
aplica al tejido vivo o de alguna energía que modifica el funcionamiento del sensor. Por
ejemplo, los rayos X o imágenes por ultrasonidos dependen de energía aplicada
externamente que interactúa sobre el tejido vivo. Los niveles de seguridad de estas
energías son difíciles de establecer ya que muchos mecanismos que provocan daños a
los tejidos no se comprenden en la actualidad muy bien.
9
Existen varios organismos e instituciones que se dedican a establecer los niveles de
seguridad y comprobar que estos se cumplan antes de homologarlos. Entre ellos:
• Clase I. Aquellos equipos en los que la protección no se obtiene sólo del aislamiento
básico, sino que se incluyen precauciones auxiliares, de forma que se dispone de una
conexión de las partes conductoras accesibles al conductor de tierra de forma
permanente, para que no puedan estar a tensión elevada en caso de fallo de
aislamiento.
• Clase II. Aquellos equipos en los que la protección no recae sólo sobre el aislamiento
básico, sino que se dispone de un doble aislamiento o aislamiento reforzado, no
existiendo provisión de una puesta a tierra de seguridad. Existen tres tipos generales
de equipos de esta clase: los que incorporan una cubierta aislante, los de cubierta
metálica y los mixtos.
• Clase III. Aquellos equipos en los que la protección se basa en alimentar a tensiones
muy bajas de seguridad, no generándose tensiones mayores que ésta en el equipo.
10
Figura. 1.2. Esquemas eléctricos de la clasificación de Instrumentos Biomédicos según
la protección utilizada.
• Tipo B. Son todos aquellos equipos de las clases I, II, III o con alimentación interna que
provean un adecuado grado de protección respecto a corrientes de fugas y fiabilidad
de la conexión de tierra. Según la norma IEC, deberán ser equipos tipo B todos
aquellos equipos de uso médico que no tengan una parte directamente aplicada al
paciente.
• Tipo BF. Aquellos de tipo B con la entrada o parte aplicada al paciente mediante
circuitos flotantes. Según la norma IEC, deberán ser equipos tipo BF todos aquellos
equipos que tengan una parte aplicada al paciente
• Tipo CF. Aquellos equipos de las clases I, II o alimentados internamente que permitan
un alto grado de protección en relación con corrientes de fugas y con entrada flotante.
Según la norma IEC, deberán ser equipos tipo CF todos aquellos en que se pueda
establecer un camino directo al corazón del paciente.
• Tipo H. Aquellos de las clases I, II, III o alimentados internamente que provean
protección frente a descargas eléctricas comparables a las que se obtienen en los
electrodomésticos.
Según el Decreto 4725 del 2005 del Ministerio de Protección Social, los dispositivos
médicos se deben clasificar de acuerdo al siguiente articulado:
11
Artículo 5°. Clasificación. La clasificación de los dispositivos médicos realizada por el
fabricante, se fundamenta en los riesgos potenciales relacionados con el uso y el posible
fracaso de los dispositivos con base en la combinación de varios criterios tales como,
duración del contacto con el cuerpo, grado de invasión y efecto local contra efecto
sistémico.
Se deberá establecer la clasificación de los dispositivos médicos siguiendo las reglas
establecidas en el artículo 7° del presente decreto, dentro de las siguientes clases:
Clase I. Son aquellos dispositivos médicos de bajo riesgo, sujetos a controles generales,
no destinados para proteger o mantener la vida o para un uso de importancia especial
en la prevención del deterioro de la salud humana y que no representan un riesgo
potencial no razonable de enfermedad o lesión.
Clase Il b. Son los dispositivos médicos de riesgo alto, sujetos a controles especiales en
el diseño y fabricación para demostrar su seguridad y efectividad.
Clase III. Son los dispositivos médicos de muy alto riesgo sujetos a controles especiales,
destinados a proteger o mantener la vida o para un uso de importancia sustancial en la
prevención del deterioro de la salud humana, o si su uso presenta un riesgo potencial de
enfermedad o lesión.
b) Los soportes informáticos que sirvan para manejar un producto o que tengan
influencia en su utilización se incluirán automáticamente en la misma categoría.
d) Si para el mismo dispositivo médico, son aplicables varias reglas teniendo en cuenta
las funciones que le atribuye el fabricante, se aplicarán las reglas que conduzcan a
la clasificación más elevada.
12
A. Dispositivos Médicos No Invasivos.
Regla 1. Todos los dispositivos médicos no invasivos se incluirán en la clase I, salvo que
les sean aplicables algunas de las reglas siguientes.
Regla 4. Todos los dispositivos médicos no invasivos que entren en contacto con la piel
lesionada, se clasificarán en:
Regla 5. Todos los dispositivos médicos invasivos en relación con los orificios
corporales, salvo los dispositivos médicos invasivos de tipo quirúrgico, que no estén
destinados a ser conectados a un dispositivo médico activo, se incluirán en:
13
c) La clase II b, si se destinan a un uso prolongado, salvo si se utilizan en la cavidad oral
hasta la faringe, en el conducto auditivo externo hasta el tímpano o en una cavidad
nasal, y no pueden ser absorbidos por la membrana mucosa, en cuyo caso, se
incluirán en la clase II a.
d) Todos los productos invasivos en relación con los orificios corporales, salvo los
productos invasivos de tipo quirúrgico, que se destinen a conectarse a un producto
activo de la clase II a o de una clase superior, entrarán en la clase II a.
Regla 6. Todos los dispositivos médicos invasivos de tipo quirúrgico destinados a un uso
transitorio se incluirán en la clase II a, salvo que:
Regla 7. Todos los dispositivos médicos invasivos de tipo quirúrgico destinados a un uso
a corto plazo se incluirán en la clase II a, salvo que tengan por finalidad:
14
e) Ejercer un efecto biológico o ser absorbidos, totalmente o en gran parte, en cuyo
caso, se incluirán en clase III.
Regla 8. Todos los dispositivos médicos implantables y los dispositivos médicos
invasivos de uso prolongado de tipo quirúrgico, se incluirán en la clase II b salvo que se
destinen a:
c) Ejercer un efecto biológico o ser absorbidos totalmente o en gran parte, en cuyo caso,
se incluirán en la clase III.
Regla 10. Todos los dispositivos médicos activos con fines de diagnóstico se incluirán en
la clase II a, siempre que:
a) Se destinen a suministrar energía que vaya a ser absorbida por el cuerpo humano,
caso en el cual, son excluidos los productos cuya función sea la iluminación del
organismo del paciente en el espectro visible.
15
d) Los dispositivos médicos activos destinados a emitir radiaciones ionizantes y que se
destinen a la radiología con fines diagnósticos y terapéuticos, incluidos los productos
para controlar o vigilar dichos productos, o que influyan directamente en el
funcionamiento de los mismos, se incluirán en la clase II b.
Regla 12. Todos los demás dispositivos médicos activos se incluirán en la clase I.
D. Reglas Especiales
Regla 13. Todos los dispositivos médicos que incorporen como parte integral una
sustancia que, si se utilizara independientemente, pudiera considerarse como un
medicamento y que pueda ejercer sobre el cuerpo humano una acción accesoria a la de
los dispositivos médicos, se incluirán en la clase III.
Regla 14. Todos los dispositivos médicos utilizados con fines anticonceptivos o para la
prevención de la transmisión de enfermedades transmisibles por contacto sexual, se
considerarán dispositivos médicos de la clase II b, a menos que sean dispositivos
médicos implantables o invasivos de uso prolongado, en cuyo caso, se incluirán en la
clase III.
Regla 17. Todos los dispositivos médicos elaborados utilizando tejidos animales o
derivados de los mismos que hayan sido transformados en inviables, se incluirán en la
clase III, excepto en los casos en que los dispositivos médicos estén destinados a entrar
en contacto únicamente con piel intacta.
Regla 18. No obstante lo dispuesto en otras reglas, las bolsas para sangre se incluirán
en la clase II b.
16
1.5.3. Clasificación de Instrumentos Biomédicos según la norma colombiana.
INSTRUMENTOS BIOMÉDICOS
EEG Laser
EMG Rayos X
ERG Escáner
Ecógrafo RMN
Monitor de Signos
Vitales
Fotocolorímetro
Espectrofotómetro
Mesa de Cirugía
Lámpara Cielítica
Oxímetro
Máquina de Respiración
Equipo de Anestesia
Autoclave
Desfibrilador
Microscopio
Electrobisturí
La exactitud de una única medida es la diferencia entre el valor real y el valor medido
dividido por el valor real. Esta relación normalmente se expresa en porcentaje. Debido a
que el valor real generalmente no puede disponerse (recuérdese que las medidas o
magnitudes biomédicas rara vez son determinísticas) se acepta como valor real un valor
de referencia.
20ºC + 1ºC es correcto
20ºC+0,1ºC incorrecto
20,5 ºC+1ºC incorrecto
18
20,5ºC+10% incorrecto
1.6.2. Precisión.
1.6.3. Resolución.
Los equipos de medida pueden introducir errores estáticos que provocan que la salida
no se pueda repetir. Si este problema no puede solucionarse (eliminar ruidos
sistemáticos) debe realizarse un estudio del sistema para determinar la posible variación
del error. De esta forma, el valor real puede estimarse utilizando diversas técnicas como
el promediado o técnicas de estimación.
1.6.6. Sensibilidad.
19
generalmente no es constante, aunque puede considerarse constante para
determinados intervalos de la señal de entrada (Figura 1.3)
Las interferencias o variaciones de los parámetros del sistema pueden aceptar a la curva
de calibración en estática vista en la Figura 1.3. El desplazamiento del origen ocurre
cuando todos los valores o magnitudes medidas se ven incrementadas o decrementadas
en una misma cantidad (valor absoluto). En este caso no se producen variaciones en la
pendiente de la curva por lo que no se producen variaciones en la sensibilidad del
equipo. Entre las causas que pueden provocar un desplazamiento del origen se puede
citar: fabricación defectuosa, variaciones de la temperatura ambiente, derivas de los
componentes electrónicos empleados, histéresis, posibles vibraciones. Un ejemplo de
desplazamiento del origen sería una posible variación de la tensión de offset d.c. de los
electrodos en un electrocardiograma (Figura 1.4.a). Las variaciones lentas de este
potencial no serían problema puesto que los electrocardiógrafos eliminar la componente
continua, sin embargo, variaciones rápidas de esta señal debidas a movimientos del
paciente pueden provocar desplazamientos en la señal de salida.
20
Figura 1. 4.a. Conexiones de electrodos al instrumento ECG.
1.6.9. Linealidad.
Los rangos de entrada del equipo determinan las magnitudes que pueden medirse.
Normalmente, el valor máximo del rango de entrada determina la máxima entrada que
puede introducirse en el equipo o sensor sin que esta sufra daños. También debe
tenerse en cuenta que en condiciones de almacenamiento o cuando no se usa, las
magnitudes del entorno o ambientales no deben superar estos valores puesto pueden
dañar al equipo. Los rangos no tienen por qué ser simétricos.
La mayoría de los instrumentos médicos deben procesar señales que son funciones en
el tiempo. Es por ello que se requiere considerar características dinámicas en el
instrumento.
Un sistema de orden cero es aquel cuya salida está relacionada con la entrada mediante
una ecuación del tipo:
23
Figura 1.5. Función de transferencia de un sistema de orden cero.
Un sistema se dice que es de primer orden si hay un elemento que almacena energía y
otro que la disipa. La relación entre la entrada x(t) y la salida y(t) viene dada por la
ecuación:
24
Figura 1.6. Función de transferencia de un sistema de primer orden.
Un sistema de segundo orden incluye dos elementos que almacenan energía y otros que
disipan energía. La relación entre la salida y la entrada responde a una ecuación
diferencial de segundo orden:
25
Figura 1.7. Función de transferencia de un sistema de segundo orden.
Son muchos los factores que aceptan al diseño de instrumentos biomédicos. Los
factores que imponen restricciones en el diseño de estos equipos dependen del tipo de
instrumento a desarrollar. Sin embargo, existen algunos requisitos que pueden
generalizarse y responden a diversas categorías como señales utilizadas, entorno de
trabajo, factores económicos y médicos. Dichos factores pueden observarse en la Figura
1.8.
26
buen diseño, suele ser el resultado de muchas horas de trabajo y de compromisos
establecidos en el desarrollo del equipo.
En un primer paso, debe diseñarse y construirse un prototipo del equipo y probar sus
cualidades. Una vez el prototipo se ha testeado y los resultados son satisfactorios puede
diseñarse el producto final.
Las especificaciones del producto deben contener una descripción de las características
del mismo. Deben incluirse características de rendimiento, interface con el usuario,
posibles pruebas o test en el entorno de trabajo, e incluso tamaño, peso y color del
instrumento. Con todos estos datos ya puede abordarse la fabricación de los equipos en
cadena.
28
Respuesta en frecuencia: La distorsión de fase o de amplitud es otro factor a tener en
cuenta en función de las frecuencias de las señales que se desean medir.
Excitación del sensor: Debe especificarse los requisitos de alimentación del sensor y el
modo y magnitud necesaria para excitarlo y obtener una medida.
Aislamiento: Deben especificarse el aislamiento eléctrico u otros métodos de seguridad
del equipo.
Dimensiones físicas: El tamaño, modo de acoplamiento del sensor primario al equipo
pueden resultar parámetros de gran interés para realizar las medidas correctamente.
Cuidado y manejo especial: Algunos sensores pueden dañarse fácilmente por lo que
se especifican algunas condiciones de manejo o mantenimiento del mismo.
Exactitud: Da idea del mayor error entre el valor real y el valor medido.
29
Repetitividad: Posibles variaciones de la salida ante la misma entrada en diferentes
instantes de tiempo.
No-linealidad: Desviación del modo de funcionamiento lineal.
Susceptibilidad a interferencia: sensibilidad del instrumento a interferencia y
variaciones de las señales de entrada.
Relación señal/ruido: Es la relación entre el valor de la señal (de pico o RMS) y el
ruido.
Estabilidad: Determina posibles derivas del instrumento en función del tiempo,
temperatura, humedad.
Modo funcionamiento: Mínimas condiciones que deben cumplirse para que el equipo
funcione correctamente o que las especificaciones no se vean profundamente
alteradas.
Fiabilidad: Establece la fiabilidad del equipo y suele expresarse por medio del tiempo
medio entre fallos (MTBF).
BIBLIOGRAFÍA
CAPÍTULO 2
30
SEGURIDAD ELÉCTRICA
Introducción
En este tema se pretende dar una visión del problema de la seguridad eléctrica,
estudiando de qué forma condiciona el diseño del equipo. De hecho, los pacientes de un
hospital bajo ciertas condiciones pueden ser más susceptibles al peligro de la corriente
eléctrica que una persona en su caso o trabajo, por lo que deben tomar precauciones
especiales en los equipos o instrumentos médicos. Las condiciones bajo las que se
presentan dichos problemas son difíciles de percibir por lo que hay que extremar las
precauciones. El objetivo final es comprender las medidas más importantes de seguridad
que se incorporan al diseño para minimizar el riesgo de peligro. Las fuentes de peligro
incluyen el fuego, aire, agua, productos químicos, drogas, diversos tipos de radiación, el
propio personal médico, pero en este caso se hará hincapié en el tema de seguridad
eléctrica, aunque no conviene perder de vista los demás.
Para describir los riesgos eléctricos, se estudian los efectos fisiológicos de la corriente
eléctrica, riesgos de shock producidos por el equipo y posibles sistemas de seguridad.
31
Los efectos que la corriente eléctrica produce sobre el cuerpo humano dependen
fundamentalmente de los siguientes parámetros: magnitud de la corriente que circula por
el tejido, frecuencia, tiempo de exposición a la corriente eléctrica, zona por la que circula
(superficie o tejido interno). La gravedad del daño producido dependerá también del
órgano afectado.
También se puede producir parálisis respiratoria si los músculos del tórax se tetanizan
por efecto de una corriente que circule a través del pecho o a través del centro de control
de la espiración en el cerebro.
Son muchos los factores que influyen en la magnitud de la corriente eléctrica necesaria
para producir un efecto fisiológico concreto en una persona.
A continuación, se comentan los efectos fisiológicos que se producen en el cuerpo
humano en función de la magnitud de la corriente eléctrica que circula a través de él
suponiendo que se aplica una diferencia de potencial entre las extremidades superiores
32
(las dos manos). En la Figura 2.1 se muestra los valores aproximados de la corriente y
los efectos que producen para un tiempo de exposición de 1 a 3 segundos y varios
niveles de magnitud alterna de 60 Hz aplicada al exterior del cuerpo de una persona de
70 Kg aproximadamente.
(cont...)
33
Figura 2.1.- Efectos fisiológicos de la electricidad.
Se define como nivel de percepción como la intensidad mínima de corriente que el ser
humano es capaz de detectar. Este valor varía en función del sujeto y de las condiciones
de medida y oscila entre 10mA y 0.5 mA para valores eficaces de corriente alterna a 60
Hz y entre 2 y 10 mA para corriente continua.
34
2.1.2. Corriente de pérdida del control motor.
Para niveles superiores de corriente, los nervios y músculos pueden excitarse y provocar
contracciones que pueden llegar a ser dolorosas ocasionando una pérdida del control
motor. Los valores de corriente que producen pérdida de control motor oscilan entre 6 y
16 mA
Corrientes mayores pueden dar origen a pérdidas de sincronismo de las diferentes fibras
que constituyen el músculo cardiaco. Una vez se desincroniza la actividad ventricular
(fibrilación ventricular), el proceso no se detiene, aunque desaparezca la causa que lo
provocó, el corazón deja de funcionar como bomba ocasionando una parada en la
circulación sanguínea y la muerte súbita si no se consigue la reversión inmediata. Puede
volverse a recuperar la actividad normal del corazón si se aplica un pulso de gran
corriente durante un corto intervalo de tiempo que despolarice todas las células del
músculo cardiaco. El equipo diseñado para este fin se denomina desfibrilador. El nivel de
corriente que puede producir fibrilación varía entre 75 y 400 mA.
Muy poco se conoce sobre los efectos de la corriente cuando ésta excede de 10A,
sobretodo en corriente de corta duración. La resistencia que ofrece el cuerpo humano
causa quemaduras, principalmente sobre la piel y en los puntos de entrada de la
corriente, puesto que la corriente de la piel es muy elevada y es donde se disipa mayor
potencia.
35
Los efectos fisiológicos vistos en el numeral anterior, producidos por la corriente
eléctrica, dependen de una serie de parámetros que se explican a continuación.
El uso de geles que reducen la impedancia piel-electrodo reduce la impedancia del lazo
de corriente de forma que el nivel de percepción disminuye. Utilizando geles en
electrodos de ECG, el valor medio del umbral de percepción se reduce a solo 83 mA en
un rango de 30-200 mA.
Rango
Percepción Corriente
Pérdida de
Control
Umbral de Corriente
para mujer
Percepción de
10.5 mA
para hombre Pérdida
1.09 mA de
valor medio Control
para
Umbral Mínimo
6 mA
Umbral Mínimo
0.5 mA Umbral Mínimo
9.5 mA
36
En la Figura 2.3 puede observarse la relación existente entre la corriente de pérdida de
control y la frecuencia de la corriente. Desafortunadamente, el valor mínimo de la
frecuencia de la corriente de pérdida de control es la de las líneas de potencia
comerciales (60 Hz). Para frecuencias por debajo de 10 Hz, el valor mínimo de la
corriente de pérdida de control aumenta probablemente debido a que los músculos
pueden relajarse en ciertos intervalos del ciclo de la corriente. Este valor de umbral de la
corriente de percepción se mantiene más o menos constante entre 10 Hz y 100 Hz,
incrementándose de nuevo para valores superiores a 100 Hz.
Corriente de
Pérdida de
Control, mA
(rms)
Curvas
Porcentuales
Corriente
Peligrosa
Frecuencia en Hz
37
Un único estímulo o pulso eléctrico puede producir una fibrilación ventricular si se aplica
durante el periodo vulnerable de repolarización del corazón que corresponde a la onda T
del ECG.
La Figura 2.4 muestra los umbrales de los valores de fibrilación para una corriente de 60
Hz aplicada a las extremidades de diversos animales. Se observa que el umbral de
fibrilación aumenta rápidamente para intervalos inferiores a 1 s y disminuye conforme
aumenta el tiempo de exposición.
Corriente de
Fibrilación
Derivación III
mA (ms), 60 Hz
Derivación III
94 Kg Caballo Pony
+ 12 Kg Perro
10 Kg Perro
o 7.5 Kg Perro
6.0 Kg Perro
× 5.0 Kg Perro
Figura 2.4. Corrientes umbrales para producir fibrilación ventricular en animales a 60 Hz.
2.1.7.4. Peso del cuerpo humano.
38
Diversos estudios que utilizan animales de diversos tamaños muestran que el umbral de
fibrilación aumenta conforme aumenta el peso del cuerpo. En la Figura 2.5, puede
observarse que existe una gran dispersión de los datos incluso para un mismo tipo de
animal. Estos resultados requieren de más estudios puesto que pueden extrapolarse
para obtener o conocer los umbrales de fibrilación de los seres humanos.
Mínima
corriente
de
fibrilación
mA (rms)
Peso del
cuerpo (Kg)
39
Cuando la corriente se aplica entre dos puntos cualesquiera del cuerpo humano, sólo un
pequeño porcentaje de la energía o corriente total a través del corazón como se observa
en la Figura 2.6. De esta forma, pueden darse básicamente dos tipos de situaciones: el
macro shock y el micro shock. El macro shock está relacionado con la circulación de
corriente en la superficie corporal (Figura 2.6.a). El microshock se refiere a aquellos
casos en los que, al tener un catéter conectado al corazón, una pequeña corriente puede
ocasionar grandes daños al paciente e incluso la muerte (Figura 2.6.b). Diversos
experimentos muestran que el rango de corrientes que producen fibrilación en casos de
microshock es de 80 a 600 mA. El límite de seguridad ampliamente aceptado para
prevenir micro shocks es de 10 mA.
Macroshock Microshock
Corriente
de Corriente de fibrilación
superficie ac
ac
a) b)
40
cuidados de la salud. Posteriormente se estudiarán diversas situaciones peligrosas que
pueden ocasionar peligros de Macroshock y Microshock.
Fusible Enchufe
Circuito protección
Activo
Tierra
Neutro
4800 V
Subestación Tierra
Fusible
Circuito protección
Enchufe
41
Figura 2.7.b. Esquema físico simplificado de la distribución de energía eléctrica.
El peligro de shock o descarga eléctrica existe entre dos conductores entre los que
exista una diferencia de potencial (115-120 V). En las áreas generales de los hospitales
(pasillos, zona de recepción) los pacientes rara vez entran en contacto con equipos
eléctricos, sin embargo, en las áreas destinadas a cuidados (habitaciones, quirófano,
UCI, urgencias, imagenología) los pacientes entran en contacto con los equipos
eléctricos por lo que el riesgo de descarga eléctrica se incrementa. Por esta razón es
necesario que los equipos médicos tengan toma de tierra para minimizar estos riesgos y
de esta forma conectar los equipos a tierra.
Aunque los equipos estén bien conectados a toma de tierra, pueden existir otras
descargas debido al contacto accidental de algún cable eléctrico o falla de la conexión a
tierra. Por ello, se requieren sistemas que aíslen eléctricamente la red eléctrica del
paciente y de esta forma se rompa el bucle de corriente minimizando así los peligros de
descarga. El aislamiento eléctrico se realiza principalmente por medio de un
transformador. En sistemas de medida, como pueden ser amplificadores se pueden
42
utilizar también amplificadores de aislamiento que rompen el bucle de corriente entre la
captación de un Biopotencial y la transmisión, procesamiento y amplificación del mismo.
Las descargas eléctricas pueden aceptar a diversos órganos en función del camino que
recorre ésta al atravesar el cuerpo humano. El órgano más susceptible a la corriente
eléctrica es el corazón puesto que pueden producirse fibrilaciones y conllevar a la
muerte del paciente. Según del camino recorrido por la corriente pueden darse dos
situaciones: macro shock y micro shock.
Para exponerse al peligro de un macro shock eléctrico, una persona debe entrar en
contacto simultáneamente con ambos conductores eléctricos, el activo y el neutro o dos
activos a diferentes potenciales. No obstante, como el conductor neutro está conectado
a masa, existe el mismo peligro entre el conductor activo y cualquier objeto conductor
que de alguna manera esté conectado a masa. Entre estos objetos pueden citarse
radiadores, cañerías de agua, estructuras metálicas del edificio entre otros. En el diseño
del equipo eléctrico, debe prestarse especial atención en impedir que el personal pueda
hacer contacto accidental con el cable activo utilizando para ello materiales aislantes
adecuados y conservando las distancias de seguridad entre los conductores y el chasis
del equipo para minimizar posibles acoples capacitivos. Con todo esto, puede producirse
un contacto accidental entre el cable activo y el chasis de un equipo debido a una
pérdida de aislamiento, al deterioro y a averías mecánicas. Si el chasis no está
conectado a masa, cualquier persona que lo toque y esté conectado a masa a través de
otro conductor estará expuesta a un grave peligro de macro shock como lo muestra la
Figura 2. 8.a.
43
Figura 2. 8.a. Riesgos de macroshock.
La capa externa de la piel llamada epidermis presenta una gran resistencia del orden de
15 K a 1 M. La piel mojada reduce su resistencia hasta el 1% de la piel seca. Al
contrario, la resistencia de los tejidos internos o de las capas internas de la piel o dermis
44
presentan valores menores de 500. Cualquier proceso que reduzca o elimine la
resistencia de la piel aumenta la vulnerabilidad de las personas ante el macro shock. Por
lo tanto, los pacientes que se encuentran en cuidados intensivos, sujetos a
monitorización o conectados a cualquier equipo son más susceptibles a un macro shock
que la población general.
Aunque el riesgo de macro shock sólo se produce por lo general como consecuencia de
una pérdida del aislamiento, se pueden crear riesgos de microshock en equipos con
aislamiento en perfecto estado. El sólo hecho del acople capacitivo entre el cable activo
y la caja del equipo eléctrico puede crear corrientes de magnitud suficientemente grande
como para presentar un riesgo de microshock. Por ejemplo, una tensión de 110 V y una
capacidad de sólo 200 pF producen una corriente de 10 mA. Por lo tanto, muchos
electrodomésticos, lámparas y aparatos de diagnósticos o terapia presentan fugas
capacitivas de corriente que sobrepasan los 10 mA. Aunque estos equipos son
perfectamente seguros para trabajar en condiciones normales, pueden crear un riesgo
de microshock para pacientes susceptibles a la electricidad. En la figura 2.9 se muestra
un ejemplo de riesgo de microshock en el que un paciente tiene un catéter insertado por
vía intravenosa. El catéter forma parte de un transductor conectado a un monitor para
visualizar ciertos parámetros y a su vez éste a la red eléctrica. Esta disposición
establece una conexión a masa del corazón a través del catéter.
45
Bajo estas condiciones, se crea un riesgo de micro shock mediante cualquier contacto
físico entre el paciente y un dispositivo que no esté puesto a masa y que tenga una
corriente de fuga mayor de 10 mA. En la Figura 2.9 el paciente está tocando el aparato
directamente, pero este contacto lo puede establecer también otra persona que toque al
paciente y al aparato a la vez. Las principales causas que pueden provocar situaciones
de riesgo de microshock son las siguientes:
De esta forma, gran parte de la corriente por acople capacitivo entre los cables
conductores y el chasis que se deriva entre el chasis y tierra lo hace a través del
paciente, en concreto, a través del corazón y del catéter como se muestra en la Figura
2.10.a y b. La mejor forma de solucionar este problema es aislar eléctricamente al
paciente de forma que no exista un camino de cierre de la corriente a tierra a través del
sujeto. Ello puede conseguirse mediante la utilización de sistemas de aislamiento a la
entrada de equipos de medida como amplificadores de aislamiento.
Otro caso de riesgo sucede cuando el paciente toca un aparato o dispositivo que tiene
corriente de fugas. Estas corrientes pueden cerrarse a tierra a través del catéter y del
equipo de medida. El mismo caso se produce si es otra persona la que facilita esta
46
conexión como se muestra en la Figura 2.11 donde una falla en el conductor de tierra
que conecta la superficie metálica de la cama con tierra. Como consecuencia de esta
falla, la cama adquiere un potencial distinto de cero y cuyo nivel depende del
acoplamiento capacitivo entre la línea de red y la cama. Una enfermera que manipula un
catéter intracardiaco establece una derivación entre la cama y éste último creando una
vía de paso a través de la enfermera y el paciente. Es posible que la corriente de fugas
sea muy inferior al nivel de percepción de la enfermera y sin embargo, puede ser
suficientemente grande para provocar un microshock al paciente. La mejor solución para
evitar este riesgo es utilizar equipos con entrada aislada y al mismo tiempo conectar
todas las partes metálicas de los diversos aparatos y accesorios a tierra.
Monitor
ECG
Fallo conexión
a tierra
Cama Corazón
Catéter de
Corriente microshock > 10 mA Flujo
Los equipos alimentados con baterías y por lo tanto aislados eléctricamente de tierra,
también pueden presentar problemas o riesgos en el paciente. Por ejemplo, en la
utilización del Electro bisturí, las corrientes de alta frecuencia pueden acoplarse
capacitivamente con el chasis y si un operador lo toca, las corrientes podrían cerrarse a
tierra a través de él. Por lo tanto, para solucionar este problema, todas las partes
metálicas externas (chasis) de los sistemas a baterías deben también unirse a tierra.
Para que produzca un riesgo o descarga de microshock hace falta una conexión
eléctrica directa del corazón con el exterior del cuerpo. Los catéteres cardiacos para
diagnóstico o para marcapasos se emplean en pacientes que tengan una afección
cardiaca. En tales pacientes, la fibrilación ventricular ocurre a menudo como
consecuencia de la enfermedad. Esto explica que el riesgo de microshock pasa
48
inadvertido durante un largo periodo de tiempo y no pueda realizarse una estimación
muy concreta del número de accidentes que puedan ocurrir debidos a esta causa.
Aunque en la mayor parte del hospital o del centro sanitario se requieren sólo las
precauciones de seguridad normales para la prevención de riesgos de macro shock,
también deben tomarse medidas especiales en aquellos lugares donde haya pacientes
susceptibles a la electricidad. Estos lugares incluyen unidades coronarias, unidades de
cuidados intensivos, quirófanos o salas donde se pueda realizar cirugía torácica. Todo lo
expuesto anteriormente hace que se deban extremar las precauciones tanto en el diseño
del equipo de medida como en su instalación.
En la Figura 2.13 puede observarse dos situaciones diferentes de riesgo de micro shock
donde existe un defecto o rotura de la puesta a tierra, así como sus circuitos eléctricos
equivalentes. Puede observarse que para una tensión de red de 120 V, y una capacidad
parásita de 2.500 pF pueden originarse corrientes de fuga de 110 mA considerando que
la resistencia de la piel es de 100 K y la del cuerpo 500 .
49
El paciente toca
Marco
el riel
Riel metálico de ventana
la cama metálico
Cable
Cables de Riel metálico de
electrodo
medida la cama
s
Asistente
Marcapasos Corazón
externo
Cama
Corazón
El paciente
toca
la cama
conectada a Motor cama
tierra
Rotura de la Rotura de la
conexión a tierra conexión a tierra
Fugas
2500 pF
Activo
Neutro
50
a)
b)
51
En la Figura 2.15 puede observarse las capacidades parásitas que pueden aparecer
entre los cables de alimentación y el chasis del equipo que pueden provocar riesgos de
micro shock. Considerando que CA y CB representan las capacidades parásitas del
monitor de ECG y equipo de medición y CS las capacidades parásitas entre los
conductores de la fuente de alimentación. En el circuito 2.15.b se ha representado el
circuito equivalente de la figura 2.15.a donde se supone que la resistencia del paciente
es 500 , CA + CS es 3000 pF y las diferencia entre CB1-CB2 es 1500 pF. En este
caso, la corriente que circula por el corazón es aproximadamente 50 mA, superando los
límites de riesgo de micro shock.
Figura 2.15. Acople capacitivo del sistema de alimentación sobre el paciente. Circuito
equivalente. El monitor de aislamiento de línea también puede añadir una capacidad en
paralelo con CA y CB.
2.7. Clasificación de los equipos biomédicos en relación con la seguridad.
52
Cuando se desea adquirir o diseñar un equipo biomédico, no sólo deben tenerse en
cuenta especificaciones relacionadas con el objetivo de la medida a realizar, de acuerdo
a lo tratado en el numeral 1.5 del capítulo primero, sobre la Norma Colombiana de
Clasificación de Instrumentos Biomédicos, (Decreto 4725 del 2005 del Ministerio de
Protección Social), sino también que desde el punto de vista de la seguridad debe
evitarse o minimizarse el peligro de descarga eléctrica o choque eléctrico por parte del
paciente o del personal que pueda utilizarlo o entrar en contacto con él. No obstante,
dependiendo de la aplicación que se quiera dar al equipo existen diversos tipos de
protecciones y distintos niveles de seguridad.
Son numerosos los organismos, instituciones y normas que se dedican a establecer los
niveles de seguridad y comprobar que éstos se cumplen antes de homologarlos y poder
ponerse en el mercado. Entre estas instituciones pueden citarse: Asociación Española
de Normalización y Certificación (AENOR), Comisión Electrotécnica Internacional (CEI),
Organización Internacional de Normalización The Electrical And Electronics Engineers,
Inc. (IEEE).
Clase I: Aquellos equipos en los que la protección no se obtiene sólo del aislamiento
básico, sino que se incluyen precauciones auxiliares, de forma que se dispone de una
conexión de las partes conductoras accesibles al conductor de tierra de forma
permanente, para que no puedan estar a tensión elevada en caso de fallo de
aislamiento.
Figura 2.14. Equipo de clase I. En trazo grueso lo que caracteriza a esta clase. B)
Circuito equivalente. Z3 er es la impedancia del tercer conductor. La protección de esta
clase I índice sobre este parámetro.
Clase II: Aquellos en los que la protección no recae sólo sobre el aislamiento básico,
sino que se dispone de un doble aislamiento o aislamiento reforzado, no existiendo
53
provisión de una puesta a tierra de seguridad. Existen tres tipos generales de equipos de
esta clase: los que incorporan una cubierta aislante, los de cubierta metálica y los
mixtos. Una precaución que el fabricante debe tener en esta clase de equipos es la de
no conectar condensadores al chasis desde la alimentación con el propósito de disminuir
el nivel de interferencias que el equipo capto o emita. Ello disminuiría el doble
aislamiento y en consecuencia la protección.
Figura 2.15. a) Equipo de Clase II. En rayado lo que caracteriza a este equipo. B)
Circuito equivalente. La protección de la clase II incide sobre el parámetro de la
impedancia de aislamiento.
Clase III: Aquellos equipos en los que la protección se basa en alimentar a tensiones
muy bajas de seguridad, no generándose tensiones mayores que ésta en el equipo.
Figura 2.16. a) Equipo de clase III. En trazo negro lo que caracteriza a estos equipos. B)
Circuito equivalente. La protección de la clase III incide en el parámetro de la tensión de
alimentación.
Equipos con alimentación interna: Este tipo de equipos no proveen ninguna conexión
eléctrica desde el exterior a la fuente interna en funcionamiento normal. Es decir, estarán
alimentados a baterías o pilas.
54
2.6.2. Según el nivel de protección.
Tipos B: Son todos aquellos equipos de las clases I, II, III o con alimentación interna que
provean un adecuado grado de protección respecto a corrientes de fugas y fiabilidad de
la conexión de tierra (si es el caso). Según la norma CEI, deberán ser equipos tipo B
todos aquellos equipos de uso médico que no tengan una parte directamente aplicada al
paciente.
Tipo BF: Aquellos de tipo B con la entrada o parte aplicada al paciente aplicado al
paciente mediante circuitos flotantes. Según la norma CEI, deberán ser equipos tipo BF
todos aquellos equipos que tengan una parte aplicada al paciente.
Tipo CF: Aquellos equipos de las clases I, II o alimentados internamente que permitan
un alto grado de protección en relación con corrientes de fugas y con entrada flotante.
Según la norma CEI, deberán ser equipos tipo CF todos aquellos en que se pueda
establecer un camino directo al corazón del paciente.
Tipo H: Aquellos de las clases I, II, III o alimentados internamente que provean
protección frente a descargas eléctricas comparables a las que se obtienen en los
electrodomésticos.
Del estudio realizado sobre riesgos de los pacientes puede observarse que existen dos
métodos principalmente para protegerlos y aumentar su seguridad. De esta forma
pueden establecerse dos principios en cuanto a las precauciones que deben tenerse en
cuenta a la hora de diseñar y posteriormente utilizar un equipo: principio de aislamiento
del paciente y principio de equipotencialidad.
El principio de aislamiento del paciente tiene como objeto evitar que se pueda cerrar
cualquier lazo de corriente a través del paciente, manteniéndolo completamente aislado.
Por otro lado, el principio de equipotencialidad tiene como objetivo que los equipos que
pueden entrar en contacto con el paciente no puedan tener una diferencia de potencial
entre masas superior a 40 mV en las zonas de cuidados (cuidados intensivos,
quirófanos, habitaciones) o 500 mV en las áreas generales.
El equipo se deberá construir de forma que exista una protección adecuada contra el
contacto accidental con las partes sometidas a tensión. Esta protección deberá
mantenerse durante el funcionamiento normal del equipo, en caso de cambio de
ubicación o apertura de cubierta o tapas para las que no se requiera ningún tipo de
herramienta.
2.7.2. Aislamiento e impedancias de protección.
55
Las partes del equipo aplicadas al paciente deberán aislarse de las partes sometidas a
tensión y en particular de la red eléctrica. Nunca se permitirán mayores fugas que las
correspondientes a un primer fallo. Las formas en las que esto se puede conseguir son
variadas y entre ellas pueden citarse: aislamiento básico y puesta a tierra, cubriendo la
parte del equipo aplicada con un conductor a tierra, separando la parte aplicada del
equipo con otro circuito de puesta a tierra, por doble aislamiento, utilizando impedancias
de protección colocadas en los sitios adecuados y uso de amplificadores de aislamiento.
(cont...)
56
Figura 2.17. Amplificadores de aislamiento.
57
Figura 2.19. Aislamiento óptico.
58
Figura 2.21. Esquema de un preamplificador de electrocardiograma (ECG).
Las partes conductoras accesibles del equipo deberán estar puestas a tierra. En
aquellos equipos con partes conductoras accesibles o que sean de clase II, III,
alimentación interna o bien del tipo CF se dispondrá de un terminal de equipotencialidad
que permite conectar entre sí todos los equipos que rodean al paciente. Un principio
importante en el conexionado del equipo a la red es el de no utilizar extensiones del
cable de alimentación ya que se puede aumentar la resistencia del tercer electrodo.
Unos límites adecuados de resistencia máxima en relación con el tercer conductor de
tierra son los siguientes: tanto para equipos que incorporan cable de conexión a red
como aquellos que no lo utilizan, la resistencia máxima entre el terminal de protección de
tierra del equipo y cualquier otra parte conectada a él debe ser inferior a 0.1 S. Para los
equipos con cable flexible, la resistencia máxima entre el terminal de tierra del enchufe a
la red y cualquier parte del circuito equipo conectada a él deberá ser inferior a 0.2 S.
Las medidas de seguridad empleadas con mayor frecuencia tienen como finalidad
asegurar en primer lugar que no puedan existir diferencias de potencial entre los objetos
que pueden entrar en contacto con el paciente y que los pacientes no puedan entrar en
contacto con ningún objeto puesto a masa o conductor. En segundo lugar, se toman
medidas para reducir las corrientes de fuga por debajo de 10 mA para disminuir el riesgo
de microshock en el caso de que algún equipo perdiese la integridad de la masa o
puesta a tierra del equipo.
Para asegurar que todos los equipos u objetos conductores cercanos al paciente estén
al mismo potencial, hay que emplear un sistema de masas equipotenciales, tal y como
59
exige la reglamentación al respecto (National Electrical Code), en todas las zonas donde
haya pacientes susceptibles a la electricidad. En los ejemplos de la Figura 2.22 se
muestran que todas las tomas de corriente de una habitación están agrupadas en un
panel. Los contactos de toma de tierra del equipo que hay en las tomas de corrientes
están unidos por una línea de masa. Además, todos los equipos u objetos metálicos se
conectan a esta línea (masa de referencia) mediante cables de conexión
independientes. Este sistema garantiza que todos los objetos que puedan entrar en
contacto con el paciente estén al mismo potencial con tal que las conexiones
individuales de toma de tierra de todos los equipos eléctricos se encuentren intactas.
2.7.4. Corrientes
de fuga.
Aunque se disponga de
un buen aislamiento
pueden producirse
derivas de corrientes
denominadas corrientes de
fuga que, aunque en un
principio su magnitud
puede considerarse
ridícula pueden ocasionar graves riesgos al paciente como pueden ser el caso de
riesgos de microshock. A continuación, se describen algunos de los motivos por los que
puede producirse corrientes de fuga:
60
Figura 2.23. Corriente de fugas a tierra.
b) Corriente de fugas del chasis: Es la que fluye del chasis a través de un camino
conductor a tierra u otra parte del chasis, pero no por el conductor de protección, Figura
2.24.
c) Corriente de fugas del paciente: Es la que fluye de una parte aplicada del equipo al
paciente a través de aquél a tierra, o de otro conductor a través del paciente a un equipo
flotante, Figura 2.25.
61
Figura 2.25. Corrientes de fuga del paciente.
d) Corriente auxiliar del paciente: Es la que fluye a través del paciente entre
aparatos aplicados en funcionamiento normal sin intentar producir efectos
fisiológicos, Figura 2.26.
e) Corriente funcional del paciente: Es la fluye a través del paciente entre aparatos
aplicados en funcionamiento normal intentando conseguir un efecto fisiológico, como por
ejemplo en el caso de utilización de un electro bisturí.
La tabla 2.1 muestra las corrientes de fuga en mA de primer fallo para diversos tipos de
equipos.
62
Tabla 2.1. Corrientes de fuga de primer fallo para diferentes equipos.
63
Estos equipos detectan posibles cortocircuitos entre cables al mismo tiempo que miden
que exista un camino físico entre dos puntos de un equipo.
Para comprobar fallos en el aislamiento del equipo o posibles derivas tierra puede
utilizarse un monitor de aislamiento de línea (LIM) también denominado detector
dinámico de tierra (Figura 2.27) que se utiliza para detectar la corriente de primer fallo en
el transformador de aislamiento. Este monitor mide alternativamente la corriente de
fugas resistiva y capacitiva entre conductores y tierra. Cuando la corriente de fugas total
supera 1.7 a 2 mA se activa una alarma.
Figura 2.27. Sistema de alimentación con aislamiento por transformador con un monitor
de aislamiento de línea para detectar derivas a tierra.
64
Los GFCI no son suficientemente sensibles a riesgos de microshock y por lo tanto se
utilizan como protección de riesgos de macro shock.
65
2.9.1. Comprobación de enchufes.
Tablas de comprobación
Consiste es hacer circular por el terminar de tierra una corriente elevada (1A) y
comprobar la tensión entre tierra y el neutro. La resistencia obtenida en cualquier caso
debe ser inferior a 0.2s.
66
Esta prueba nunca debe hacerse cuando exista riesgo de microshock, y en general
cualquier riesgo para los pacientes o personal sanitario.
Esta resistencia entre ramas de distinta tierra debe ser inferior a 0.5 s y entre paneles de
distribución diferentes inferiores a 1.0 s.
La resistencia entre la tierra del enchufe y el chasis del equipo o cualquier punto
metálico externo no debe superar 0.15 s. En la Figura 2.30 se puede observar este
hecho.
Las corrientes de fuga del chasis deben ser inferiores a 500 A en equipos que no tengan
contacto con los pacientes e inferiores a 100: A en los que sí tengan contacto.
67
Figura 2.31. a) Comprobación de la corriente de fugas del chasis. b) Circuito que se
utiliza para medir la corriente de fugas.
Las corrientes de fuga de los cables de contacto con el paciente o de los electrodos,
deben tenerse en cuenta puesto que estos contactos suelen presentar bajas
impedancias y pueden provocar riesgos o daños en el paciente. En estos contactos
pueden existir diversos tipos de fugas: fugas a tierra, fugas entre pares de electrodos o
entre cada uno y los demás. Al mismo tiempo debe prestarse especial atención en el
aislamiento de los electrodos.
La corriente de fugas en este caso debe ser inferior a 50 A. En cables aislados esta
corriente debe ser inferior a 10 A. Estos electrodos o cables aislados deben utilizarse
para conectar catéteres o electrodos en el corazón. Para medir estas corrientes debe
estar conectado el paciente tal y como puede apreciarse en la Figura 2.32.
68
Figura 2.32. Comprobación de la corriente de fugas de los hilos conectados al paciente.
Corrientes de fuga también pueden producirse entre pares de electrodos o entre cada
uno y los demás. En la Figura 2.33 se muestra un circuito para realizar esta medida.
69
Figura 2.33. Comprobación de las fugas entre los cables conectados al paciente.
Finalmente, puede producirse corrientes de fugas a través de los cables del paciente
hacia tierra si se aplicase una tensión de alimentación o red donde el paciente se
colocaría. De esta manera puede comprobarse el aislamiento electrodos-tierra ante
conexiones de la red a cada electrodo. La Figura 2.34 muestra un circuito para realizar
esta medida.
70
Figura 2.34. Comprobación del aislamiento electrodo-tierra a una tensión igual a la de la
red.
Bibliografía
71
CAPÍTULO 3
Introducción.
Los sensores biomédicos son usados en medicina clínica e investigación biomédica para
la medición de un amplio rango de variables fisiológicas. Son frecuentemente llamados
transductores biomédicos y son los bloques principales de construcción de la
instrumentación médica de diagnóstico encontrado en consultorios, laboratorios clínicos
y hospitales. Estos sensores son rutinariamente usados in vivo para desempeñar
monitoreo continuo invasivo o no invasivo de variables fisiológicas criticas además de in
vitro para ayudar a los profesionales de la salud en diversos procedimientos de
diagnóstico. Algunos sensores biomédicos son usados también en aplicaciones que
nada tienen que ver con medicina como por ejemplo en monitoreo ambiental, agricultura,
bioprocesamiento, procesamiento de comida y en la industria petrolera y farmacéutica.
Los sensores biomédicos toman señales que representan variables biomédicas y las
convierten en lo que usualmente son señales eléctricas. Los sensores biomédicos o
biosensores sirven como una interfaz entre los sistemas biológico y electrónico y deben
funcionar de manera tal que no afecten a ninguno de estos sistemas. Se describen a
continuación los diferentes tipos de sensores pueden ser usados en aplicaciones
biomédicas.
Las variables físicas asociadas a los sistemas biológicos son medidas por un grupo de
sensores conocidos como sensores físicos. Aunque son muchas las variables que
pueden ser medidas en un sistema biomédico, éstas pueden ser clasificadas como se
muestra en la Tabla I.
Los sistemas biológicos frecuentemente tienen actividad eléctrica asociada a ellos. Esta
actividad puede ser un campo eléctrico constante, un flujo constante de partículas
portadoras de carga o corriente, o un campo eléctrico o una corriente variables en el
tiempo relacionados con determinado fenómeno biológico o bioquímica dependiente del
tiempo.
Tabla II. Ejemplos de aplicación biomédica de los sensores físicos.
73
SENSOR APLICACIÓN RANGO
74
Tabla III. Señales bioeléctricas detectadas por los electrodos de biopotenciales.
L=n2 G μ
75
Fig. 3.1. Transductor LVDT
76
El flujo de sangre a través de un conducto expuesto (vena) puede ser medido por medio
de un transductor electromagnético de flujo. Este es usado ampliamente en estudios
investigativos para la medición del flujo de sangre en venas principales cerca al corazón,
incluyendo la aorta en el punto donde esta existe desde el corazón.
Figura. 3.2. Voltaje de salida versus desplazamiento del núcleo de un transductor LVDT
típico.
Considere un conducto sanguíneo de diámetro l lleno de sangre fluyente con una
velocidad uniforme u. si el conducto sanguíneo se pone en un campo magnético
uniforme ⃗B que es perpendicular a la dirección del flujo sanguíneo, la carga negativa
anión y la carga positiva catión presentes en la sangre experimentaran una fuerza ⃗ F , la
cual es normal tanto a la dirección del campo magnético como a la dirección del flujo
sanguíneo y está dado por
F =q (⃗u × ⃗
⃗ B)
Donde q es la carga elemental (1.6 ×10−19 C). Como resultado, estas partículas cargadas
serán deflectadas en direcciones opuestas y se moverán a lo largo del diámetro del
conducto sanguíneo de acurdo a la dirección del vector fuerza ⃗ F . Este movimiento
producirá una fuerza opuesta F o que es igual a
⃗
V
F o=q ⃗
⃗ E =q
l( )
E es la red de campo eléctrico producida por el desplazamiento de las partículas
Donde ⃗
cargadas y V es el potencial producido a través del conducto sanguíneo. En equilibrio,
77
estas dos fuerzas serán iguales. Por consiguiente, la diferencia de potencial, V, está
dada por
V =Blu
78
Figura. 3.4. Transductores de desplazamiento lineal (a) y angular (b).
R=ρ ( Al )
79
Figura. 3.5. Transductor elástico resistivo.
La luz blanca está compuesta por una serie de colores, cada uno de los cuales se
caracteriza por una longitud de onda determinada, que son: el rojo, el naranja, el
amarillo, el verde, el azul, el añil y el violeta. De ellos, el rojo es el que tiene la longitud
de onda mayor y el violeta la menor. Sin embargo, todos estos colores no están
nítidamente divididos entre sí sino que forman un espectro continuo.
Uno de los efectos que presenta la luz blanca es el de la dispersión de los colores que la
componen, cuando incide con un ángulo determinado desde un medio en otro cuya
densidad es diferente al primero. Como consecuencia de la diferencia de longitudes de
onda, la luz de los diversos colores se propaga con velocidades distintas y ángulos de
80
difracción diferentes, lo cual da lugar a la separación de la luz blanca en el espectro
continuo antes mencionado. Este efecto puede observarse en el arco iris, en el que la
luz solar es refractada y dispersada por las gotas de lluvia. Por otro lado, el color azul del
cielo se debe a la dispersión de la luz solar que se difracta en las moléculas de la
atmósfera.
De este modo, cada elemento químico está asociado a un espectro característico que
resulta de extrema utilidad en su análisis químico. Por otro lado, los espectros de
absorción se obtienen gracias al hecho de que el vapor de una sustancia absorbe, a una
temperatura inferior a la incandescencia, las mismas longitudes de onda que emite. El
espectro que se obtiene recibe el nombre de espectro de absorción ya que en las
regiones correspondientes a las longitudes de onda absorbidas aparecen oscuras.
Dichos espectros se emplean también para la determinación de la composición del vapor
en cuestión recibiendo las líneas oscuras antes mencionadas el nombre de rayas de
Fraunhofer.
A pesar de que la descomposición de la luz blanca da lugar a siete colores y que el paso
de estos nuevamente por un prisma permite recuperar dicha luz, para obtenerla solo es
necesario combinar tres colores espectrales, el rojo, el verde y el azul. Dichos colores se
denominan por este motivo colores primarios de la luz. Asimismo, la combinación de
pares de dichos colores primarios da lugar a la aparición de otros colores (secundarios).
El verde y el rojo permiten obtener el amarillo, el azul y el verde dan el cyan mientras
que el rojo y el azul dan el magenta. Esta combinación de colores primarios es la que se
emplea por ejemplo para la obtención de la imagen en el tubo de televisión en color
mediante tres cañones, uno para cada color. Por otro lado, la mezcla de los pigmentos
de los colores da lugar a resultados diferentes ya que nosotros percibimos los colores de
los pigmentos a modo de luz reflejada y no de luz que proceda directamente de una
fuente luminosa. Es decir, el color que percibimos es el único que no ha sido absorbido
por la superficie que refleja la luz. En este caso los colores primarios si bien existen son
distintos: el magenta, el cyan y el amarillo (que a su vez son los colores secundarios de
la luz). De igual modo en este caso pueden obtenerse los colores secundarios mediante
81
la mezcla de parejas de primarios, a saber, el amarillo y el magenta para obtener el rojo,
el magenta y el cyan para obtener el azul y el cyan y el amarrillo para obtener el verde.
Al igual que en el caso de la luz la mezcla de los tres colores primarios nos permitía
obtener luz blanca, en el caso de los pigmentos su mezcla da como resultados la
sustracción total de los colores de la luz por lo que su resultado es el negro.
Sensores de Luz.
Fotodiodos
ILUMINACION CORRIENTE
Sol directo 1000 fc 30 mA
Cielo nublado 100 fc 3 mA
Anochecer 100 fc 0.03 mA
82
Noche con Luna llena 0.1 fc 3000 pA
Noche sin Luna 0.001 fc 30 pA
Tabla 3.1. Corriente para diferentes intensidades de luz.
Para detectar una corriente de 30 pA, implica colocar una resistencia de realimentación
en el amplificador operacional muy alta, por ejemplo, de 1000 MΩ para obtener una
tensión de 30 mV y para una corriente de 10 nA se obtendrá una tensión de salida de
10V. Entonces, para valores de iluminación superiores se tendrá que reducir el valor de
dicha resistencia. Un amplificador operacional con entrada a FET es la mejor elección
para este tipo de aplicación, como el AD549, AD546, AD795 y AD645 de Analog
Devices, con una muy baja corriente de Bias (hasta 1pA).
Transductores Fotoeléctricos.
En medición de eventos fisiológicos en seres vivos los transductores fotoeléctricos son
empleados en 2 formas:
Como detector de cambios en la intensidad de la luz de una cierta
longitud de onda, como en la colorimetría y espectrometría.
83
Aun cuando hay cierto traslape en sus características, su selección está relacionada por
sus particulares características de respuesta al espectro de luz, sensitividad, voltaje y
corriente de salida.
a). Tubos fotoemisores.
En los transductores con tubos foto emisores se aplica un voltaje relativamente alto
(entre 10 y 200 volts), sin luz presenta una muy pequeña corriente de fuga; ante la
presencia de luz se liberan electrones en el cátodo y se establece un flujo de corriente
hacia el ánodo que es linealmente proporcional a la intensidad de la luz incidente. Su
respuesta a la frecuencia es muy alta (tiempos menores a 1 milisegundo).
El flujo de corriente es pequeño (no suficiente para indicación directa) y requiere de
etapas de amplificación. En tubos foto emisores llenos de mezclas de gases es posible
obtener corrientes más altas.
Un tipo particular del tubo foto emisor es el fotomultiplicador, donde se agregan ánodos,
cada uno a un potencial más alto, obteniéndose en 10 o más etapas amplificaciones de
corriente en el orden de millones con tiempos de respuesta de del orden de
nanosegundos. Debido a su alta sensitividad y corto tiempo de respuesta, los
fotomultiplicadores son aplicados ampliamente para detectar bajos niveles de luz
presentes en cortos tiempos.
Un caso de aplicación en ingeniería biomédica son contadores de centelleos presentes
en estudios de medicina nuclear, donde las emisiones de un material radioactivo (que es
aplicado al paciente) son convertidas a luz mediante una pantalla fluorescente y
detectada su intensidad y localización mediante fotomultiplicadores.
Una de las celdas fotovoltaicas más populares consiste de un sándwich con dos
superficies asiladas, una con un recubrimiento de selenio y la otra de hierro o acero.
Cuando se ilumina, se absorbe la energía de la luz, liberando electrones produciendo
una diferencia de potencial que es negativa en el lado metálico y positivo en el lado del
84
selenio. Adicionalmente, la resistencia interna de la celda decrece con el incremento en
luz, permitiendo conectar varias celdas en paralelo y evitando que celdas que no reciban
luz carguen al circuito.
Las fotoceldas de selenio cubren el rango de luz visible, por lo que son ampliamente
utilizadas en medidores de iluminación, medidores de exposición de luz y colorímetros
simples (mediante el uso de filtros ópticos). Debido a su alta capacitancia, las celdas
fotovoltaicas presentan respuestas mayores a 5 milisegundos. La principal desventaja de
las celdas fotovoltaicas es su sensitividad a cambios en temperatura.
La sensitividad espectral de las celdas fotovoltaicas de unión P-N está en el rango de las
regiones roja e infrarroja, su tiempo de respuesta está en el rango de microsegundos a
milisegundos, lo cual los ha hecho ampliamente utilizados en detectores de luz.
85
Otra aplicación importante es su uso en dispositivos de aislamiento eléctrico
(optoaisladores), donde una señal eléctrica es convertida a luz mediante un LED y es
detectada a cierta distancia por una celda fotovoltaica de unión PN, abriendo cualquiera
conexión conductora entre entrada y saliendo con características de un excelente
aislamiento eléctrico.
Las celdas fotoconductivas o foto resistivas están formadas por una delgada película de
materiales como selenio, germanio, silicio o sulfatos metálicos. Cuando son expuestos a
cierto tipo de energía radiante, exhiben un fenómeno foto conductivo, decrecimiento es
su resistencia. El cambio en resistencia es significativo, de muchos megohmios en la
oscuridad a pocos cientos de ohms en plena iluminación.
Algunas celdas fotoconductivas son muy sensibles al rango de radiación infrarroja lo que
ha hecho que se apliquen en espectroscopia u objetivos que emiten este tipo de
radiación. Su tiempo de respuesta varía con la intensidad de la luz, pero anda en un
rango de 0.1 a 30 milisegundos.
86
En un fototransistor se deja la terminal de base sin conectar y expuesta a la luz, la
intensidad de la luz produce un incremento en el potencial de la base activando el
transistor y amplificando este efecto en la corriente de colector por el factor β del
transistor.
Con tal cantidad de detectores fotoeléctricos, conviene hacer una revisión de sus
características más importantes. Las características más importantes de los sensores
fotoeléctricos son:
87
Tubos fotoemisores:
Aplicaciones en colorimetría.
Figura. 3.11. El primer detector (canal rojo) provee una señal que indica la cantidad de
oxígeno en la sangre y la cantidad de sangre en el tejido, por supuesto, en la trayectoria
de luz. El segundo detector (canal infrarrojo) es independiente de la saturación de
oxígeno y porta información de la cantidad de sangre y tejido en la trayectoria de luz. El
grado de saturación de oxígeno se determina calibrando el fotodetector contra muestras
de sangre analizadas químicamente.
89
señal del fotodetector. Con esto se pudo lograr un sistema que ofrece mediciones de
concentración de CO2 cada 50 milisegundos.
Aplicaciones no colorimétricas.
Figura. 3.12. Fuente de luz frente a detector y fuente de luz al lado del detector.
Los termistores son resistencias que, ante cambios en temperatura, cambian su valor en
forma predecible (Figura. 3.13.b). Un dispositivo con coeficiente de temperatura positivo
91
(PTC) incrementa su resistencia cuando se incrementa la temperatura, mientras un
dispositivo de coeficiente negativo (NTC) disminuye su resistencia cuando se incrementa
la temperatura.
La mayoría de los termistores presentan una característica no lineal en un rango amplio
de temperatura, sin embargo, la linealidad mejora cuando se limita a un rango estrecho
de temperatura (tal como la temperatura del cuerpo humano). Cuando se utilizan
termistores es necesario asegurar que no se permita que la temperatura llegue a valores
donde la calibración no es conocida o donde la característica del termistor es
extremadamente no lineal. La mayoría transductores de temperatura médicos son
termistores.
Para minimizar errores causados por cambio en la resistencia de los cables que se
conectan al termistor se conectan terminales compensadoras, con lo cual se pueden
lograr exactitudes en la medición del orden de centésimas de grado centígrado. En el
uso de termistores se deben tomar algunas precauciones:
a) Si está inmerso en un líquido, debe considerarse su conductividad eléctrica, pues
pudiera operar como una resistencia en paralelo, distorsionando la medición.
b) Si está en un medio donde se tienen campos magnéticos constantes o variables se
debe considerar su efecto en resistencia o en voltaje inducido en el sensor.
c) Cuidar que la corriente de polarización del transductor no produzca una elevación en
su temperatura.
La mayoría de los termistores usados en estudios Biomédicos son muy pequeños, al
minimizar la masa térmica se reduce su tiempo de repuesta, permitiendo seguir cambios
rápidos en temperatura.
Aun cuando los termistores generalmente son usados para la medición de la
temperatura de la piel o de muchas regiones dentro del cuerpo, estos pudieran ofrecer
muchos servicios más, por ejemplo, ya que la temperatura del aire expirado es mayor
que la del aire inspirado, un sensor de temperatura (usualmente un termistor sellado
herméticamente) colocado en las vías respiratorias puede proveer una señal que permita
el monitoreo de la frecuencia respiratoria.
La última clase de transductor de temperatura es el diodo de estado sólido de unión PN
(Figura. 3.13.c). Si lo desea puede hacer la prueba con cualquier diodo rectificador de
estado sólido; se conecta a un óhmetro, la resistencia en polarización directa presentará
un valor; si se calienta (por ejemplo, con un cautín) la resistencia bajará a medida que se
incremente su temperatura.
92
Ic1
KT ln ( )
∆ V be = Ic2 Ecuación (3.1)
q
Donde
K es la constante de Boltzman (1.38x10-23 J/ 0K)
T es la temperatura en grados kelvin (Nota: 0 0C = 273 0K)
q es la carga electrónica, 1.6 x 10-19 Coulombs por electrón.
Ic1 e Ic2 son la corriente de colector de Q1 y Q2, respectivamente.
La cantidad K/q es una razón de constantes que es constante bajo todas las
circunstancias. La razón de corriente Ic1/Ic2 se mantiene constante al utilizar fuentes
de corriente constante en los circuitos de emisor de Q 1 y Q2. Por supuesto, el logaritmo
de una constante es también una constante. Además, la única variable en la Ecuación
(3.1) es la temperatura T.
Ejemplo:
= 310 0K]
Ic1 J mA
∆ V be =
KT ln ( )
Ic2 = (1.38 X 10 −23
°K ) (
( 310 ° K ) [ln 2
1 )
mA ]
Ecuación (3.2.)
q −19
1.6 X 10 ° C
El circuito en la Figura. 3.13.c presenta una ventaja distinta sobre los otros: es
ampliamente lineal sobre todo el rango de temperatura (hasta el punto donde la unión
PN se daña por sobre temperatura). Así, el voltaje de salida ΔV be puede ser procesado
por un simple amplificador y no requiere de una etapa adicional para linealizar el
resultado.
93
Si se selecciona un amplificador de ganancia adecuada, entonces la temperatura y el
voltaje de salida del amplificador pudieran ser numéricamente iguales, permitiendo que
un voltímetro opere como indicador de salida. La mayoría de estos sistemas de
instrumentación producen un voltaje de salida del amplificador de 10 mV/°K.
CAPÍTULO 4.
Introducción.
Los potenciales bioeléctricos del cuerpo humano o de cualquier animal raramente son
determinísticos. Sus magnitudes varían con el tiempo, incluso cuando todos los factores
que las originan están controlados. Los valores de la misma medida pueden variar
enormemente entre diferentes individuos, aunque estos estén sanos y las condiciones
de medición sean las mismas. Esto quiere decir que los valores pueden ser muy
diferentes para diferentes personas, aunque sean valores normales en ellos.
94
A continuación, se relacionan algunos de los valores típicos para diferentes señales
bioeléctricas:
Los valores indicados en la Tabla 4.1. fijan la ganancia y el ancho de banda que debe
tener el equipo de medida. Tomando como ejemplo la señal del ECG, y para evitar
deformaciones mayores del 10%, la American Heart Association recomienda que el
ancho de banda de los equipos destinados a captar el ECG sea al menos de 0.1 a 100
Hz. Sin embargo, en función de la patología a detectar puede ser necesario trabajar con
mayores anchos de banda.
Teniendo en cuenta los valores de la Tabla 4.1, se podría pensar que el problema de la
adquisición de los biopotenciales se reduce a diseñar y construir un amplificador con
ganancia elevada y ancho de banda suficiente. Pero, el principal problema en el registro
de estas señales se encuentra en reducir al mínimo las interferencias o ruido que se
encuentran mezcladas con ella y que en muchos casos tienen mayor amplitud que la
propia señal, y con un espectro de frecuencia superpuesto.
95
Figura 4.1. Fuentes de interferencia que actúan sobre la medida de un
biopotencial extracelular.
En la Figura 4.1 se muestran las principales fuentes de ruido que actúan sobre el
registro de cualquier potencial bioeléctrico. Una posible clasificación de interferencias
puede ser:
Capacitivas:
Acoplamiento capacitivo con el paciente.
Acoplamiento capacitivo con los conductores y el equipo.
Inductivas.
Originadas por la interfaz electrodo-electrolito-piel.
Debidas a otros potenciales bioeléctricos.
Debidas a otros sistemas fisiológicos.
Debidas a cargas electrostáticas.
Las interferencias externas son todas aquellas que tienen su origen fuera del equipo
amplificador. La principal fuente de interferencia externa es, sin duda, la red de
distribución de energía eléctrica, que provoca una señal de interferencia de 60 Hz, ya
que las interferencias introducidas por otros equipos tienen generalmente frecuencias
superiores al ancho de banda de la señal bioeléctrica. Ésta es la responsable de todas
las alteraciones debidas al acople inductivo y capacitivo. Siendo el acople capacitivo de
la red eléctrica con el cuerpo del paciente la mayor fuente de ruido presente en el
registro de cualquier potencial bioeléctrico.
96
No obstante, conviene tener presente posibles interferencias o artefactos introducidos
por otros biopotenciales como por ejemplo los artefactos introducidos por el sistema
respiratorio en el registro del ECG. Estos artefactos pueden minimizarse variando la
colocación de los electrodos, de forma que éstos se posicionen en lugares donde su
influencia sea mínima.
Son debidas al acople capacitivo que existe entre los diferentes elementos del sistema
de medida y la red de suministro eléctrico. Provocan la aparición sistemática de una
señal de 60 Hz en los registros bioeléctricos. Cabe diferenciar entre el acople capacitivo
con el paciente y el acople capacitivo con los conductores y el equipo.
Produce el efecto más importante de todos los ruidos y condiciona totalmente el diseño
del amplificador. A continuación, se describe sus causas y las técnicas para atenuar sus
efectos.
60 Hz
110v
Cr = 2 pF.
Cm = 520 pF.
Para el caso de un paciente en cama sin toma a tierra y tocando la barandilla, estos
valores se elevan a:
Cr = 200 pF.
Cm = 3300 pF.
Se forma un divisor de tensión que hace que el paciente se encuentre a una tensión con
respecto a tierra de un valor aproximado:
Cm 2
V p V R x
Cr +C m = 2 √ 2 x 110 x 2+ 520 1.19 V Ecuación (4.1)
Recordando que los niveles del ECG y del EOG sobre la piel son aproximadamente de 1
mV y 10 mV respectivamente, queda clara la importancia de esta señal de interferencia.
Esta es el ruido que más enmascara la señal y condiciona el diseño del amplificador.
El acople capacitivo de la red de suministro eléctrico con los cables que conducen la
señal al equipo hará que aparezcan corrientes de desplazamiento. Estas corrientes
fluirán a tierra a través de las interfaces electrodo-piel, el cuerpo del paciente y el tercer
electrodo del amplificador, produciendo tensiones en modo común y diferencial. En la
Figura 3.2 puede observarse el acople capacitivo mediante las capacidades C1 y C2.
98
Figura 4.2. Acoplamiento capacitivo con los conductores.
U MC = Z e3 (i D 1 + i D 12 ¿ Ecuación (4.2)
Al mismo tiempo, aparece una tensión diferencial debida a diferencias entre las
corrientes y desequilibrios de las impedancias de la interfase electrodo-piel:
U D = Z e1 i D 1 + Z e2 i D 2 Ecuación (4.3)
Una posibilidad para reducir este tipo de interferencia es procurar que las impedancias
electrodo-piel sean bajas y que el desequilibrio entre ellas sea mínimo, lo cual no
siempre es posible.
Este tipo de interferencias son causadas normalmente por la red eléctrica. Por ella
circulan corrientes variables de 60 Hz que provocan la aparición de campos magnéticos
variables con el tiempo. Estos campos magnéticos atraviesan los bucles formados en el
sistema de medida, induciendo ellos tensiones de 60 Hz de acuerdo con la ley de Lenz:
−d d
e= B . ds Ecuación (4.4)
dt dt ∫
=
100
donde:
e: Fuerza Electromotriz inducida.
: Flujo.
B: Inducción Magnética.
Queda:
Estas tensiones son proporcionales al área del bucle en cuestión y a la frecuencia del
campo magnético que interfiera. Las más importantes se inducen en el bucle formado
por el paciente, los conductores y el propio equipo. La mejor solución para reducir la
interferencia magnética, es hacer el área del bucle de medida tan pequeña como sea
posible, lo cual se puede conseguir trenzando los cables de medida desde el equipo de
registro hasta las proximidades del paciente o utilizando cable coaxial adecuado con una
conexión apropiada.
101
Figura 4.5. a) Disposición correcta de cables.
b) disposición incorrecta.
Las interferencias de 60Hz son las que más afectan al diseño del sistema de
amplificación, por lo que en el caso de que las medidas anteriores no sean suficientes
puede adoptarse otro tipo de soluciones complementarias como incluir un filtro notch a
60Hz en la cadena de amplificación con el inconveniente de que se pierde la información
a dicha frecuencia.
Este problema se puede solventar fijando el electrodo a la piel, de forma que se evite
cualquier movimiento. Y utilizando electrodos de materiales que presenten
polarizaciones menores como los electrodos de plata-cloruro de plata.
102
Figura 4.6. Potencial de contacto electrodo piel.
No existe una forma clara de evitar dichas interferencias. Así, por ejemplo, en el registro
de las señales del ECG es importante que el paciente esté relajado y en reposo,
procurando que su actividad muscular sea la mínima posible.
Otra solución es la colocación adecuada de los electrodos para que una señal quede
realzada respecto de la otra. Ello es posible por la influencia que tienen los factores
geométricos en la amplitud y forma de las señales bioeléctricas.
La interacción entre los diferentes sistemas fisiológicos de los seres vivos se traduce en
la aparición de interferencias sobre la señal que se desea medir. Una de las
interacciones más estudiadas es la variación de las señales del sistema cardiovascular
por la acción del sistema respiratorio. Este provoca cambios de amplitud y de forma en
los registros del ECG, así como una variación del ritmo cardíaco.
103
4.1.2.6. Interferencias provocadas por cargas electroestáticas. Interferencias
triboeléctricas.
Reciben este nombre las interferencias provocadas por la circulación, a través de los
electrodos a tierra, de las cargas electrostáticas almacenadas en el cuerpo del paciente.
Ello provoca, normalmente, fluctuaciones de la línea base y, en ocasiones, la saturación
de los amplificadores.
Se consideran interferencias internas, aquellas que son provocadas por fuentes incluidas
en el bioamplificador. Entre ellas destacan las causadas por la fuente de alimentación y
las debidas al ruido interno de los componentes electrónicos en general.
4.1.2.7.1. Interferencias debidas a la fuente de alimentación.
También influye el valor del rechazo al rizado del regulador de la fuente de alimentación.
Una solución aceptable para solucionar estos problemas es usar baterías para alimentar
el amplificador, que además de reducir el ruido de alimentación, añaden seguridad al
paciente.
En cualquier caso, pueden utilizarse redes de filtrado en las alimentaciones que sirven
para atenuar la interferencia del rizado de la fuente como se observa en la Figura 4.7.
104
Figura 4.7. Circuito con redes de filtrado para las fuentes de alimentación.
Los componentes electrónicos, bien sean activos o pasivos, generan señales de ruido,
en general aleatorias, que contaminan las medidas. En los sistemas que requieren
grandes amplificaciones, este problema puede ser crítico y exige una adecuada
selección de los componentes de las primeras etapas.
Los componentes pasivos, especialmente las resistencias, que tienen una densidad
espectral de ruido:
V
( )
e n=√ 4 KTR
√ Hz Ecuación (4.6)
donde:
K: constante de Boltzman, 1.38x10-23 (J/°K.)
T: temperatura absoluta. (°K)
R: resistencia. (W)
En cuanto a los componentes activos, la única medida posible es la selección de los que
presenten menores niveles de ruido, dentro de las exigencias del diseño, incluidas las
económicas.
105
Cualquier sistema de acondicionamiento de biopotenciales se va a ajustar a un mismo
diagrama de bloques, como el mostrado en la Figura 4.8. Este diagrama comienza en
los electrodos, los cuales transforman las corrientes iónicas del cuerpo en corrientes
eléctricas. En seguida se encuentra un preamplificador, con alto rechazo al modo común
(CMRR) y alta impedancia de entrada (Zen). Seguidamente aparece un amplificador de
aislamiento, con el fin de que no exista conexión eléctrica entre el paciente y la
instalación eléctrica. Después se realiza un filtrado analógico de la banda de frecuencias
de interés y puede que exista una última etapa de amplificación que puede estar
incorporada también en la etapa de filtrado. Además, se requiere de un sistema de
alimentación que tenga dos fuentes aisladas eléctricamente, una para cada lado de la
barrera de aislamiento de manera que el paciente mantenga el aislamiento con la
instalación eléctrica.
AMPLIFICADOR
ELECTRODO PREAMPLIFICADOR FILTRO
AISLADO
FUENTE 1 FUENTE 2
Vdd 1 Vss 1
Vdd 2 Vss 2
A continuación, se analizarán con más detalle las características que debe cumplir cada
bloque.
4.2.1. Preamplificador.
Para demostrar esta afirmación se iniciará el estudio por el sistema de amplificación más
básico, la amplificación no diferencial. Este modelo se muestra en la figura 4.9., dónde
106
se puede observar cómo la señal de red se acopla a un paciente sobre quien se está
realizando una medida unipolar o absoluta respecto a un punto de referencia.
60 Hz
110 V
En este diagrama la señal que se tiene a la salida del amplificador es la suma ponderada
de la tensión bioeléctrica y la de interferencia debida al acoplamiento capacitivo de la red
eléctrica. El coeficiente de ponderación es función de los condensadores y de las
impedancias de contacto de los electrodos Ze.
107
Figura 4.10 Amplificación no diferencial.
Z e1
V interf . = Z e 1+
1 x V¿ Ecuación (4.7)
Cr S
Z e1 C r
|V interf .| = 2 2 2 x V¿ Ecuación (4.8)
√Z e1 Cr ❑ +1
108
El nivel de la señal de interferencia es mayor que él de la señal bioeléctrica, el nivel
medio del ECG es de 1 mV y del EOG de pocos mV. Este razonamiento demuestra que
es imprescindible la amplificación diferencial para atenuar en lo posible el gran
componente existente de ruido en modo común.
60 Hz
110V
109
Cr=2pF
Ze1=10K
Cm=520pF Ze2=10K
Cm 2
V p V R x = 2 √ 2 x 110 x 1.19 V Ecuación (4.9)
Cr +C m 2+ 520
El nivel de la señal de interferencia referido a la entrada, que sería una señal diferencial
tal que provocara un nivel en la señal de salida igual al de la interferencia, se define:
V MC A MC V MC
V interf = AD = CMR
Ecuación (4.10)
Si se exigiese una señal de interferencia menor a 1% del nivel de la señal (en el caso de
ECG) sería necesario un rechazo al modo común de:
V MC V MC 1.19
CMR
≤V interf → CMR ≥ V interf
= 10−5
= 119000
110
4.2.1.3. Ruido de red diferencial.
El esquema eléctrico de este circuito, mostrado en la Figura 4.14., será el utilizado para
calcular la influencia de la tensión de la red a la entrada del amplificador.
Para ver la influencia a la entrada del amplificador de cada una de las dos tensiones
presentes, Vecg y Vred, se analiza el circuito aplicando superposición.
111
Para simplificar los cálculos se asume que la impedancia diferencial de entrada del
amplificador es infinita. Lo que no supone ninguna limitación de los resultados obtenidos.
Tener en cuenta que este es el peor caso, ya que lo ideal, siempre al referirse a la señal
de interferencia, es que esta impedancia es nula.
Se analiza primero la influencia de la tensión de red. Para ello se supone nula Vecg. Con
esta suposición y la aproximación referente a Zd queda el circuito eléctrico mostrado en
la Figura 4.15 así:
112
Desarrollando la ecuación anterior:
113
Como las impedancias de los electrodos y cables Z e1y Z e2 serán siempre mucho
menores que Z m 1y Z m 2 puede apreciarse que la tensión diferencial Vd debida a la red es
muy pequeña:
114
Resolviendo para Vd con la regla de Cramer:
❑2
❑2 =
X r Z mc1 Z mc 2+ Z e 1 Z e2 X m + X e1 Z mc 2 X m+ Z mc 1 Z e2 X m + Z mc1 Z mc 2 X m+ X r Z e 1 X m + X r Z e1 Z e 2+ X r Z e 1 Z mc2 + X r Z mc1 X m +
En este caso, despreciando el efecto de los condensadores, puesto que se supone que
Zcm//Zcr 6 Mpara 60 Hz y se cumplirá que Zm1+Ze1 y Zm2+Ze2 > 6 M, se puede
aproximar que:
115
Z m 1 +Z m 2
Vd = V ecg Z e 1 + Z e 2+ Z m 1+ Z m 2
Realizando la suposición que las impedancias de los electrodos y cables Ze1 y Ze2 será
siempre mucho menores que Zm1 y Zm2 se obtiene que:
Vd V ecg
V d =V dA +V dB
Z e2 Z e1
V d =V 1 −
Z m 2 Zm 1
+ V ecg
Para minimizar el ruido debido a la tensión de red deben considerarse las siguientes
opciones:
X m Z mc Z e 2−Z e 1 X m Z e 2−Z e 1
V d = V interf V ¿ 2 2
=V ¿
Z X m+ Z
mc mc Xr X m + X r Z mc
116
Sustituyendo Xm y Xr por sus valores, Xm=1/jwCm, Xr=1/jwCr:
Cr Z e2−Z e1
V d =V interf V ¿
C r +C m Z mc
Suponiendo una impedancia electrodo-piel de 10 k, y una dispersión entre ellas del
10% (1k), la ecuación anterior permite obtener el valor mínimo de la impedancia en
modo común necesario para obtener una señal de interferencia a la entrada menor del
1% de la señal del ECG. La señal de interferencia deberá ser menor de 10 V. Para ello
se necesitarían impedancias de modo común superiores a 240 M para el caso de
acoplamiento del paciente con la red comentado en el apartado anterior.
Otra fuente de distorsión importante que afecta a la captación del ECG o de cualquier
otro biopotencial es la naturaleza compleja de la impedancia de contacto electrodo-piel.
Estas poseen valores elevados en el rango de frecuencias donde se encuentra la mayor
información de los biopotenciales. Esto obliga a exigir al amplificador impedancias de
entrada muy elevadas, idealmente infinitas, para hacer despreciable la corriente que
pasa por esta interfaz y así minimizar los efectos de su impedancia.
Concluyendo, el amplificador debe tener una impedancia de entrada muy elevada para
evitar la interferencia diferencial de red, y la influencia de la impedancia compleja de la
interfaz electrodo-piel.
El amplificador necesario para captar y amplificar la señal bioeléctrica deberá reunir las
siguientes características:
Utilizar amplificación diferencial para atenuar las señales de modo común.
Poseer un rechazo al modo común muy elevado.
Poseer impedancias de entrada muy elevadas para disminuir la interferencia
diferencial debida a la red y evitar la distorsión del biopotencial.
4.2.1.4. Conexión de un amplificador de Bioinstrumentación.
Este tercer electrodo cumple una función adicional, ya que permite reducir la señal de
modo común (CMRR) a la que está sometido el paciente.
V¿
V mc = Z
X Cr + Z e 3 e3
V¿
V mc = 1 Z
+ Z e 3 e3
2 f Cr
118
2 √ 2 ( 110 ) 311.12
.10000= .10000
V mc = 1
+10000
1591559431
( 2 π 50 ) 2. 10−12
V mc =1.59 mV
Comparando este valor con el que se obtenía sin tercer electrodo se puede apreciar que
la señal de modo común se reduce aproximadamente por un factor de 1000.
Esta solución puede disminuir el nivel de seguridad del paciente, ya que introduce un
camino de baja impedancia entre el paciente y masa para que se cierren posibles
corrientes de fugas. Además, complica las medidas, ya que existe otro elemento a
conectar y vigilar. Sin embargo, es la más utilizada ya que existen técnicas que superan
la desventaja que supone para el paciente la conexión del tercer electrodo.
Es evidente que la desventaja principal que supone la introducción del tercer electrodo
es la disminución de la seguridad, puesto que habilita un posible camino a tierra de baja
impedancia, a través del paciente, de las corrientes que por cualquier causa puedan
generarse en el mismo sistema de amplificación y en su entorno (situaciones típicas de
peligro se presentarán más adelante retomando el tema de seguridad del paciente y
aislamiento; por el momento sólo debe asumirse que la conexión del tercer electrodo
presenta una vía de riesgo).
Con el objetivo de conservar las ventajas del tercer electrodo sin poner en peligro al
paciente, una posibilidad sería minimizar las corrientes de fuga mediante la conexión de
una resistencia de elevado valor entre el tercer electrodo y tierra, ya que ello permitiría el
cierre de las corrientes de polarización facilitando el funcionamiento del sistema, y
minimizaría las corrientes de fuga a través del paciente en caso de que éste se
encontrara eventualmente a una tensión elevada debido a una situación accidental. Sin
embargo, al conectar una resistencia de elevado valor entre el tercer electrodo y tierra,
se pierde una de las ventajas que suponía la conexión del tercer electrodo, pues
aumenta la tensión de modo común y, por tanto, el nivel de interferencia.
Una posibilidad alternativa consiste en conectar al paciente, a través del tercer electrodo,
a un punto que está al potencial de tierra, pero manteniendo entre el cuerpo y tierra una
impedancia elevada Ro, por ejemplo 10 M. Esto se consigue, por ejemplo, uniendo el
tercer electrodo a un punto que está a potencial de tierra a través del circuito de la
Figura 4.17. Este esquema presenta las mismas ventajas que la conexión del tercer
electrodo, pero aumenta la seguridad del paciente. En efecto, en situación normal, el
funcionamiento en modo lineal del amplificador operacional asegura la conexión del
tercer electrodo a un punto de potencial cero a través de una impedancia equivalente
muy elevada. Sin embargo, en situación anormal (cuando el paciente se encuentre a una
tensión en modo común elevada) el amplificador operacional dejará de funcionar en
119
modo lineal y la resistencia efectiva entre el paciente y tierra será la suma de la
correspondiente al tercer electrodo y la de 10 M.
Figura 4.18. Conexión del 3º electrodo Figura 4.19. Conexión del paciente
a tierra virtual. a tierra virtual.
Una variante de esta situación sería incluir al paciente en el bucle de realimentación del
seguidor (Figura 4.18); de esta manera el paciente, o parte de él, está al potencial de
tierra virtual, desapareciendo la señal de modo común (dado que en Ze’ no existe caída
de tensión). Esta técnica permitiría la amplificación no diferencial.
Del circuito de la siguiente figura, se puede deducir que la impedancia equivalente entre
el punto del cuerpo donde se sitúa el tercer electrodo y tierra viene dada por:
Z e3
U MC AU MC
iD 2
XC2 iD 1 iD 1 iD 2
Z e3
Z eq
1− A
La ecuación anterior indica que la realimentación activa reduce la impedancia global del
tercer electrodo por un factor equivalente, aproximadamente, a la ganancia A del circuito
de realimentación. Todo ello además sin disminuir la seguridad del paciente puesto que
la resistencia Ro limita la corriente, de paso, en caso de un aumento anormalmente
grande de la tensión de modo común, como ocurría en el caso visto anteriormente.
121
Figura 4. 22. Circuito equivalente para el cálculo de la tensión de modo común.
Para el caso de realimentación activa, la tensión en modo común queda definida por la
siguiente expresión:
Ze 3 X e 2
u MC ( 1 ) =E
( X e1 + X e2 ) Z e 3 + X e 1 X e2 ( 1− A )
Z e3 X e2
u MC ( 2 ) =E
( X e1 + X e2 ) Z e 3 + X e 1 X e2
uMC ( 1 ) 1
≈
uMC ( 2 ) 1− A
Se puede deducir que cuanto menor sea la impedancia del tercer electrodo Ze3’ menor
será la tensión de modo común u MCa la que estará sometido el paciente y, por tanto,
menores serán las interferencias derivadas de ella.
Sin embargo, existen dos inconvenientes para reducir esta impedancia. Por un lado, Ze3
es la impedancia de la interface electrodo-piel y, aunque se pueden adoptar medidas
para reducirla al máximo (preparación de la piel, utilización de geles, electrodos de gran
tamaño), no es muy controlable y, por supuesto, no es nula. Por otra parte, al utilizar
amplificadores no aislados, cuanto menor sea Ze3’ mayor será la corriente que
atravesará el cuerpo en caso de derivación accidental.
Para intentar paliar estos inconvenientes y reducir las interferencias sin afectar, en gran
medida, la seguridad del paciente, se utilizan una serie de técnicas dos de las cuales se
van a detallar en los apartados siguientes. Estas técnicas suelen aplicarse en equipos
que no impliquen medidas directas; en este caso se utilizan sistemas aislados.
Con todo lo expuesto anteriormente en este mismo apartado, ya se puede llegar a una
conclusión sobre la etapa de aislamiento:
123
4. Si se trata de un amplificador de instrumentación, es necesario montar la
realimentación activa, con el fin de polarizar la etapa de entrada sin riesgos para el
paciente.
Un sistema de aislamiento óptico está constituido por un emisor, por ejemplo, un LED, y
un receptor, por ejemplo un fotodiodo o un fototransistor. El conjunto de ambos permite
aislar galvánicamente dos partes de un conjunto y debe, al mismo tiempo, transmitir la
señal entre ambas con la menor distorsión posible. En este tipo de aislamiento la señal
que se introduce en el circuito emisor puede ser la señal original en banda base, o bien
124
una señal modulada, generalmente en ancho de pulso, por la primera. En ambas
situaciones se tienen ventajas e inconvenientes.
Una solución alternativa consiste en aplicar al circuito emisor una señal modulada, por
ejemplo, en ancho de pulso, por la señal original. En este caso, aunque los mecanismos
de aislamiento son iguales, la linealidad del sistema no radica en el circuito de
aislamiento óptico, ya que la señal a transmitir tiene únicamente dos niveles de tensión,
sino en el sistema de modulación. En general, para este tipo de aislamiento está más
extendido el uso de sistemas de modulación que la transmisión de la señal en banda
base.
Un sistema de este tipo estará compuesto por una etapa moduladora, un transformador
que se encargará de realizar el aislamiento galvánico entre la entrada y la salida y la
etapa demoduladora para recuperar la señal .
Por tanto, se necesitan dos fuentes de alimentación aisladas, sin conexión eléctrica, una
para cada lado de la barrera de aislamiento. La alimentación de la zona de filtrado no
presenta ningún problema, ya que se puede alimentar con una fuente de alimentación
conectada a tierra. Sin embargo, la alimentación de la zona del paciente debe estar
aislada, lo cual se puede conseguir de dos formas distintas, cada una con sus ventajas e
inconvenientes.
La otra posibilidad es montar una fuente aislada a partir de baterías. Empleando una
batería de 12 V se puede obtener una salida simétrica de ±5 V, necesaria para alimentar
la etapa aislada.
126
Figura 4.25. Fuente de alimentación a partir de batería.
CAPÍTULO 5.
BIOPOTENCIALES.
Introducción.
Las células excitables ejercen sus funciones generando señales eléctricas en términos
de cambios de potencial de la membrana plasmática. Existen diferentes clases de
células excitables con funciones diversas, tanto en el reino animal como en el vegetal.
Así, ciertas plantas con capacidad de movimiento, como la mimosa (Mimosa púdica),
poseen células que generan señales eléctricas cuya función es activar el mecanismo
contráctil. En el reino animal, se encuentran ejemplos de células excitables: a) las
células musculares esqueléticas y lisas, que generan señales eléctricas que activan el
mecanismo contráctil; b) las células secretoras que activan el mecanismo secretor por
medio de señales eléctricas, las que producen a su vez, un aumento intracelular
transitorio de la concentración del ión Ca +¿¿; y c) las neuronas.
127
La función primordial de la neurona es integrar la información que le llega por los
contactos sinápticos y emitir señales a otras neuronas y a efectores (células musculares
y de órganos de secreción). Para realizar esta función las neuronas operan con señales
eléctricas especializadas, que consisten en la modificación del potencial de membrana (
V m).
Respuestas más lentas y de menor voltaje como, por ejemplo, los potenciales
marcapasos, los prepotenciales y pospotenciales, que controlan la excitabilidad y,
por lo tanto, tienen una importante función integradora.
En todas las células en general, y en particular en las excitables, existe una diferencia de
potencial transmembrana más o menos constante llamada potencial de reposo ( V m)
siendo el interior de la célula negativo con respecto al exterior (Figura 5.1). Esta
diferencia de potencial se debe a la existencia de gradientes de concentración iónica a
ambos lados de la membrana y a diferencias de la permeabilidad relativa de la
membrana celular a las distintas especies iónicas presentes.
129
Las diferencias de permeabilidad que existen en reposo para distintas especies iónicas
se deben a canales iónicos con permeabilidad específica para una determinada especie
iónica.
+¿
RT K A
EK = ln +¿ ¿ ¿ Ecuación (5.1)
ZF K B
131
K +¿
A
E K =58 mV . log 10 ¿ Ecuación (5.2)
K +¿
B ¿
K +¿¿ ]i. Sin embargo, cuando se varía experimentalmente, en una célula muscular en una
neurona o en un axón (experimento hecho por Hodgkin y Keynes, en 1955, para
132
concentraciones extracelulares, y Baker, Hodgkin y Shaw, en 1962, para
concentraciones intracelulares de K +¿¿ en el axón gigante de calamar) la pendiente de 58
mV por unidad logarítmica de variación de ¿ se aproxima aceptablemente para valores
altos de esta concentración (> 10 mM), pero disminuye progresivamente la pendiente de
la relación para valores bajos de¿ alejándose de la predicción de la ecuación de Nernst
(Figura 5.4).
Por un lado, la buena correlación existente entre la predicción de Nernst y los valores
normales y despolarizados de V r cuando¿ se aumenta sobre los valores naturales,
indica que la permeabilidad al K +¿¿ es el elemento más importante en la generación del
potencial de membrana en reposo (Figura5.4).
Por otro lado, la desviación progresiva de lo predicho por la ecuación de Nernst para
valores hiperpolarizados de V r respecto a las concentraciones bajas de ¿ sugiere que
otro ión permeable interviene en la generación del potencial de membrana y que su
participación aumenta para bajas concentraciones de ¿. Hodgkin y Horowicz, en 1959,
demostraron la participación del Na+¿¿ en el V r variando la concentración extracelular de
Na+¿¿([ Na+¿¿ e ¿. Los efectos sobre V r de los cambios de Na+¿¿ e eran mucho menores que
los observados para modificaciones de [ K +¿¿ ]e lo que sugirió que la contribución del ión
Na+ al V r era pequeña. Por lo tanto la participación de la permeabilidad selectiva de la
membrana al K +¿¿ es primordial en la generación de V r a la que se agrega una pequeña
participación de la permeabilidad al Na+.
RT
ln P K K e+ P Na Nae + PCl Cl i
zF Ecuación (5.3)
V m=
P K K i+ P Na Nai+ PCl Cl e
133
O sustituyendo como en las ecuaciones [1] y [2],
58 mV ln P K K e+ P Na Na e+ PCl Cl i
V m= Ecuación (5.4)
PK K i+ PNa Na i+ PCl Cl e
donde las unidades del coeficiente de permeabilidad P son cm/s y éste se define como
μβ RT
P=
aF
PNa
= 0.01
PK
134
Figura 5.4. Dependencia del potencial de membrana en reposo ( V r ) de la concentración
extracelular de K +¿¿ [K +¿¿ ]e. La recta corresponde a los valores calculados con la
ecuación de Nernst, considerando una concentración intracelular de potasio de 140 mM.
La línea continua que ajusta a los valores experimentales se obtuvo de la ecuación de
Goldman-Hodgkin-Katz, Ecuación (5.4), considerando una relación de permeabilidad
Na/K de 0,01.
10 el numerador, como ocurriría con la Ecuación (5.2) de Nernst, sino menos). En esas
condiciones, la influencia de la pila de Na irá aumentando para valores bajos de [ K
+¿¿ +¿¿
]e (Figura 5.4). Es importante enfatizar que las ecuaciones (5.3) y (5.4) no son válidas
para los iones divalentes.
135
Figura 5.5. Efecto de las variaciones de concentración extracelular de cloro. Se
disminuye la concentración de Cl−¿¿ de 120 a 30 mM, y se produce una despolarización
transitoria, y cuando se vuelve a la concentración inicial ocurre una hiperpolarización
transitoria.
Las propiedades pasivas de las células excitables se pueden analizar tal como hicieron
inyectando corriente por la membrana celular y registrando las variaciones de V m para
valores subumbrales. Se introducen dos electrodos dentro de la célula, uno para
registrar el V m (Figura 5.7) y el otro para inyectar corriente ( I m). En fibras grandes como
el axón gigante de calamar pueden usarse electrodos metálicos, pero células más
pequeñas se penetran con pipetas de vidrio de punta submicroscópica (<1 μm) rellenas
de un líquido conductor, por ejemplo, KCl (Figura 5.7). Unos de los electrodos
intracelulares se conectan el uno a un amplificador y el otro a un generador de pulsos de
corriente, cerrándose los circuitos de registro e inyección intracelular por medio de
electrodos extracelulares colocados en el baño que contiene la célula o axón (Figura
5.7). Cuando se estimula la célula con pulsos de corriente que atraviesan la membrana
circulando entre los dos electrodos conectados al generador de pulsos, la corriente
induce a variaciones del potencial de membrana que dependen de estos elementos:
Intensidad.
Dirección de la corriente.
Propiedades pasivas de la membrana.
138
La magnitud de V K para respuestas subumbrales aumenta linealmente con la intensidad
del pulso de corriente. Si se representa V K en función de la intensidad de la corriente
inyectada ( I m), lo que se denomina relación voltaje-corriente, los valores experimentales
se ajustan bien a una función lineal (Figura 5.8) que cruza el eje de las ordenadas en el
valor de V r . La relación lineal entre V K e I m indica que la membrana celular se comporta
como una resistencia eléctrica (se dice que tiene un comportamiento resistivo u óhmico),
ya que obedece a la ley de Ohm. Esta ley establece que si se pasa corriente por una
resistencia se creará una diferencia de potencial a ambos lados de la resistencia que
variará linealmente con la intensidad de la corriente. Así, para la membrana, la relación
tendría la siguiente forma: Vm = Vr + (Im × Rm) Ecuación (5.5)
140
De lo anterior se deduce que puede calcularse la resistencia de membrana (Rm)
aplicando la ley de Ohm de la siguiente forma: Rm = VK / Im. Por lo tanto, la pendiente
de la relación voltaje-corriente (Figura 5.8) define el valor de Rm. Obviamente, cuanto
mayor sea Rm, mayor será la pendiente. El comportamiento óhmico de la membrana es
debido a la existencia de canales iónicos pasivos que se comportan como un conductor
iónico que tiene una resistencia eléctrica finita.
142
Figura 5.10A. Efecto de la aplicación de pulsos de corriente en el equivalente eléctrico
de membrana. Equivalente eléctrico y esquema de la aplicación del pulso de corriente y
del registro de voltaje.
Ese condensador admite cargas negativas y positivas a ambos lados del dieléctrico
(Figura 5.10B) durante el pulso y donde (Vr − Vm) es el cambio de potencial, q es la
carga en culombios y C es la capacidad del condensador en faradios (F). En el instante
en que comienza a pasar la corriente, el condensador está descargado, por lo que toda
la corriente aplicada pasa por él, a esta rama del circuito se la llama capacitiva, y a la
corriente que pasa por ella IC y no hay paso de corriente por Rm, a esta rama del
circuito se la llama resistiva, y a la corriente que pasa por ella, IR, ya que la resistencia
se opone al paso de corriente (Figura 5.10B). Como Vm depende de la corriente que
pasa por Rm y de acuerdo con la ley de Ohm generalizada, Vm = Vr + (Rm × IR) y como
en ese instante inicial IR = 0, entonces resulta que Vm = Vr. En el instante que sigue, el
condensador ya ha admitido carga por lo que hay cierta oposición al paso de corriente
por la rama capacitiva y algo de corriente pasa por la rama resistiva que generará un
cambio de Vm de acuerdo a la ley de Ohm. Cuando el condensador se ha cargado
143
totalmente toda la corriente Im pasa por Rm (Im = IR) y se habrá llegado a VK (Figura
5.10B), Es importante notar que la corriente que pasa por la rama capacitiva sumada a
la que pasa por la rama resistiva es en todo momento igual a la corriente total
transmembrana Im (Im = IC + IR). Cuando el pulso termina, el condensador se descarga,
y aparece una corriente capacitiva igual y contraria a la que cargó el condensador al
comienzo del pulso. Esta corriente, pasando por la rama resistiva hace que Vm decaiga
exponencialmente hasta estabilizarse en el Vr.
CAPÍTULO 6
ELECTROCARDIOGRAFÍA
Introducción
144
La electrocardiografía consiste en el registro gráfico de la actividad eléctrica que se
genera en el corazón. Su análisis proporciona importante información que debe
complementar siempre a una anamnesis y exploración física detalladas. Aporta datos
sobre función cardiaca, trastornos del ritmo y de la conducción, hipertrofia de cavidades
y ayuda al diagnóstico de cardiopatías congénitas o adquiridas de tipo infeccioso,
inflamatorio, metabólico o isquémico. Su normalidad no siempre descarta afectación
cardiaca.
El corazón se contrae (sístole) 70-80 veces por minuto, mediante el acotamiento de las
fibras musculares; entre las contracciones se establecen periodos de relajación
(diástole) en los que la sangre penetra en las cavidades. Estas contracciones están
provocadas por un sistema nervioso autónomo, regulado por el sistema vegetativo bajo
el gobierno de un núcleo situado en el bulbo (centro cardiaco) y por influencias
hormonales (adrenalina).
145
ventrículos se efectúa simultáneamente; las aurículas también se contraen, lo que hacen
antes que los ventrículos, ayudando con ello a pasar la sangre hacia éstos.
El corazón está situado en la cavidad torácica y ocupa la región intermedia entre las dos
regiones pleuro-pulmonares.
En las figuras 6.1.a y 6.1.b se puede apreciar la forma y disposición del corazón.
146
Figura 6.1.a. Vista anterior del corazón y de los grandes vasos.
147
Figura 6.1.b. Vista posterior del corazón y de los grandes vasos.
El corazón presenta a causa de su forma, tres caras, tres bordes, una base y un vértice.
El corazón está formado de cuatro partes: las aurículas derecha e izquierda y los
ventrículos derecho e izquierdo. La aurícula derecha está situada detrás del ventrículo
derecho; la aurícula izquierda está detrás del ventrículo izquierdo.
Los límites de las aurículas y de los ventrículos están indicados en la superficie exterior
del corazón por los surcos interventricular, interauricular y aurículo-ventricular.
Caras. - Las tres caras son: cara anterior o esternocostal, otra inferior o diafragmática y
otra lateral izquierda.
Bordes. - Las tres caras del corazón están separadas por tres bordes, uno derecho y dos
izquierdos. El borde derecho, situado entre la cara anterior y la cara inferior, es agudo.
Los bordes izquierdos son redondeados y separan la cara lateral izquierda de las caras
anterior e inferior.
148
Base. - La base del corazón está constituida únicamente por las aurículas. Está dividida
en dos segmentos, derecho e izquierdo, por el surco interauricular.
Vértice. - El vértice o punta del corazón está dividido en dos partes por una ligera
depresión que une el surco interventricular anterior al surco interventricular posterior; la
derecha, pequeña, corresponde al ventrículo derecho, la izquierda, más voluminosa,
pertenece al ventrículo izquierdo y ocupa el vértice del corazón.
Tabique interventricular.
150
Se extiende desde la pared anterior hasta la pared inferior del corazón y se une a estas
paredes enfrente de los surcos interventriculares anterior e inferior.
Tabique interauricular.
Están situadas detrás de los ventrículos, a los lados del tabique interauricular. Son más
pequeñas que los ventrículos; sus paredes son mucho más delgadas; son lisas en la
mayor parte de su extensión.
Son dos cavidades piramidales o conoideas, situadas delante de las aurículas, a los
lados del tabique interventricular. El vértice de los ventrículos corresponde a la punta del
corazón. La base, dirigida hacia atrás, está ocupada enteramente por dos orificios
circulares a saber: uno aurículo-ventricular, que pone en comunicación la aurícula con el
ventrículo, y otro arterial, más pequeño que el precedente, que hace comunicar el
ventrículo derecho con la arteria pulmonar y el ventrículo izquierdo con la aorta.
Paredes. - Las dos paredes, una izquierda o externa y otra derecha o interna, son muy
cóncavas; su espesor mucho mayor que el de las paredes del ventrículo derecho, es,
por término medio, de un centímetro.
El corazón se puede considerar como una bomba de dos etapas, dispuestas en paralelo,
pero la sangre circulando en serie. La mitad derecha del corazón, conocida como
corazón derecho, es la bomba que suministra sangre venosa a los pulmones para que
ésta se oxigene, mientras que el lado izquierdo (corazón izquierdo) puede considerarse
como una bomba de presión que suministra la sangre arterial al resto del cuerpo. Las
vías por donde circula el flujo sanguíneo a través de los pulmones se denominan
151
circulación pulmonar, y el sistema circulatorio que provee de oxígeno y alimentos a las
células del organismo se denomina circulación mayor.
La analogía del sistema circulatorio como una bomba o un sistema hidráulico no puede
considerarse en una forma demasiado estricta. Las arterias y venas no son rígidas sino
flexibles, son capaces de favorecer la conducción y controlarla mediante su propia
acción muscular y su sistema de válvulas y almacenamiento. Por otro lado, la sangre no
es un fluido newtoniano puro, sino más bien, posee propiedades que no cumplen la
mecánica de los fluidos. Además, la sangre necesita la ayuda de los pulmones para
oxigenarse y se influye mutuamente en el sistema linfático. También hay que tener en
cuenta que muchos productos químicos y hormonas afectan al funcionamiento del
sistema. De este modo una simplificación excesiva podría conducir a errores.
152
aortica y la sangre sale por la arteria aorta al resto del cuerpo. Las Figuras 6.6 y 6.7
muestras las principales arterias y venas del organismo humano.
153
Figura 6.5. Circulación cardiovascular.
154
Figura 6.6. Principales arterias del organismo.
155
Figura 6.7. Principales venas del organismo.
Sístole auricular.
El primer acontecimiento del ciclo cardíaco es la descarga del nodo sinusal, que
despolariza en primer lugar ambas aurículas, dando lugar a la onda P del
electrocardiograma. Tras la activación eléctrica la aurícula se contrae, aumenta la
presión intraauricular, y como en este momento aurículas y ventrículos están en
comunicación porque las válvulas aurículo ventriculares están abiertas, se envía una
cantidad adicional a la sangre en el ventrículo, induciendo una pequeña elevación del
volumen ventricular y un aumento transitorio de la presión auricular y ventricular.
(sigue gráfica...)
157
Figura 6.8. Curvas de presión y volumen del corazón durante el ciclo cardiaco.
158
Figura 6.9. Sonidos cardiacos.
El corazón izquierdo es una bomba de presión que trabaja contra altas resistencias
periféricas, mientras que le corazón derecho es una bomba de volumen que vacía su
contenido contra las bajas resistencias. Si el sistema circulatorio se divide en un sistema
de alta presión, representado por el ventrículo izquierdo, arterias elásticas y arteriolas, y
un sistema de baja presión, que se extiende desde los capilares a la aurícula izquierda,
el ventrículo izquierdo tiene la cualidad única de pertenecer a ambos sistemas, en
diástole al de baja presión y en sístole al da alta presión, mientras que en condiciones
normales el ventrículo derecho permanece todo el tiempo en el sistema de baja presión.
Fase de eyección.
El ventrículo no se vacía por completo durante la sístole. Siempre queda una cierta
cantidad de sangre al final de la sístole, unos 60 ml que se denomina volumen sistólico
final o volumen residual. El volumen sistólico de eyección es, pues, la diferencia entre el
volumen diastólico final y el volumen sistólico final, que en nuestro ejemplo es de 70 ml.
La relación entre el volumen de eyección y el volumen diastólico final se conoce como
fracción de eyección, que es uno de los índices más precisos de la función ventricular.
Determinada por medios angioigráficos, la fracción de eyección varía entre el 60 a 75%.
161
recurrir al corazón a la ley de Starling. La función ventricular es anormal cuando la
fracción de eyección es inferior al 50% y está gravemente deprimida cuando es del 30%.
Por ser el corazón derecho una bomba de volumen, es más sensible a cambios ligeros
de la presión de llenado y la respiración influye más en el corazón derecho que en el
162
izquierdo. La inspiración, al disminuir la presión intratorácica, aumenta el llenado del
ventrículo derecho y el volumen de eyección subsiguiente, y retrasa el componente
pulmonar del segundo tono que indica el final de la fase de eyección (desdoblamiento
fisiológico del segundo tono). En condiciones normales, el aumento de llenado del
ventrículo derecho en la inspiración no interfiere con el llenado del ventrículo izquierdo.
Como se sabe, sobre el ventrículo derecho, en el área paraesternal, hay una ligera
retracción sistólica. Probablemente en ella colaboran tres elementos: el balanceo
contrario de la expansión sistólica izquierda, el movimiento de contracción horaria del
ventrículo derecho y la disminución del volumen sistólico del ventrículo derecho.
El ventrículo derecho tiene un giro horario de expresión, al mismo tiempo que desciende
considerablemente al anillo o banda muscular tricúspide. Por tanto, ambos ventrículos
tienen un giro contrario de la superficie externa siguiendo sus líneas anatómicas:
antihorario el ventrículo izquierdo y horario el derecho, confluyendo ambos sobre el
tabique interventricular, que actúa de charnela.
Al cerrarse la válvula aórtica, el ventrículo vuelve a ser una cámara cerrada. Esta fase se
denomina de relajación isovolumétrica, porque el volumen sistólico final o volumen
residual no varía hasta que se abren las válvulas aurículo-ventriculares y comienza la
fase siguiente de llenado.
El comienzo de la diástole se suele referir a la producción del segundo tono. Que indica
el final de la protodiástole y el principio de la fase de relajación isovolumétrica. El
segundo tono se produce cuando la válvula aórtica se abomba y tensa hacia la cavidad
ventricular, unos 30 ms después del cruce de presiones ventricular y aórtica.
163
válvulas, mitral y tricúspide, permanecen cerradas y la sangre no entra ni sale de los
ventrículos.
La onda T del ECG, que señala la repolarización ventricular, tiene lugar en esta fase de
relajación isovolumétrica.
Cuando la presión ventricular desciende por debajo de la auricular, las válvulas aurículo-
ventriculares se abren y los ventrículos comienzan a llenarse, muy rápidamente al
principio y más lentamente después. El llenado ventricular se divide en tres fases: fase
de llenado rápido o pasivo, fase de llenado lento o diástasis y fase de llenado auricular o
activo, que ha sido considerado ya. La fase de llenado rápido, la más importante, es
relativamente precoz y muy rápida, incluso más rápida que la fase de eyección.
El ventrículo continúa llenándose lentamente en esta fase, por lo que la curva de presión
intraventricular se horizontaliza con un ascenso muy lento. Esta fase, casi quiescente
desde el punto de vista hemodinámico, es larga en la bradicardia y desaparece en la
taquicardia. En nuestro esquema mide 190 ms y se continúa con la fase de llenado
auricular, descrita previamente.
El flujo total del organismo es limitado y está representado por el gasto cardíaco, que en
un individuo adulto de 70 K en reposo supone aproximadamente 5,5 L/min.
El corazón sólo envía lo que recibe y por lo tanto en condiciones normales, el volumen
minuto es idéntico al retorno venoso. Es el organismo el que impone la cuantía del
volumen minuto y no la bomba.
Desde un punto de vista hidráulico, el corazón juega tan sólo un papel permisivo y no
regula su propio volumen minuto. El volumen minuto representa, pues, el balance entre
el retorno venoso y la capacidad de corazón para aceptar dicha demanda. En
condiciones normales el corazón dispone de un amplio rango de demandas que oscila
entre 5 y 30 l/min en atletas entrenados. Cuando el corazón está enfermo, el corazón es
incapaz de aumentar el volumen minuto en respuesta al aumento de las necesidades
periféricas.
a) Retorno venoso.
165
Es la cantidad de sangre que fluye desde las venas a la aurícula derecha cada minuto,
constituyendo la precarga. En condiciones normales el retorno venoso es igual al
volumen minuto, porque el volumen de eyección es igual al volumen de llenado. El
retorno venoso tiene lugar en un sistema de baja presión y gran capacidad y hay
muchos factores que influyen en él y le modifican. El factor principal es el gradiente de
presión y el sistema venoso de baja presión. Pero hay otros muchos factores que
colaboran con la musculatura esquelética de las extremidades inferiores, las válvulas
venosas, el tono veno-motor, la bomba respiratoria que aumenta el retorno venoso en la
inspiración y la propia succión de la relajación ventricular, puesto que el corazón es una
bomba aspirante-impelente.
b) Factores cardiacos.
En el ejercicio muscular, hay vaso dilatación local por el fenómeno de auto regulación y
estimulación simpática, que produce taquicardia, aumento de la contractilidad cardíaca y
vasoconstricción. Como resultado, aumenta la presión media sistémica y, por lo tanto, el
retorno venoso aumenta. Por otra parte, al aumentar la contractilidad el corazón no sólo
acepta el aumento de la precarga, sino que disminuye el volumen residual, aumenta el
volumen de eyección, y por lo tanto aumenta considerablemente el volumen minuto
hasta 20 a 25 l/min. Los atletas de alto rendimiento aumentan el volumen minuto hasta
30 a 35 l/min. El corazón humano normal varía el volumen minuto desde 20-15 l/min en
condiciones de ejercicio extremo hasta límites tan bajos como un tercio del volumen
minuto normal. Cuando se ha utilizado por completo la reserva de extracción artero-
venosa de O2, la reducción ulterior del volumen minuto produce hipoxia tisular,
metabolismo anaerobio, acidosis y colapso circulatorio.
c) Frecuencia cardiaca.
Ello se debe a que la taquicardia fisiológica, por ejemplo, del esfuerzo, se debe a la
descarga simpática que aumenta la frecuencia, la contractibilidad y la relajación cardíaca
abreviando la sístole y la diástole, de modo que el corazón acepta el aumento del
retorno venoso y cumple el mismo trabajo sistólico, o un poco mayor, en menos tiempo.
166
La electrocardiografía convencional estudia el registro de la actividad eléctrica cardíaca
mediante unos aparatos denominados electrocardiógrafos. Esta actividad se registra en
forma de una línea que presenta distintas inflexiones que se corresponden con el paso
del estímulo eléctrico desde el lugar donde normalmente se origina, el nodo sinusal,
hasta los ventrículos a través del sistema específico de conducción (SEC). Se recuerda
que dicho sistema está formado (Figura 6.10) por el nodo sinusal, las vías preferenciales
de conducción interauricular e internodal, el nodo auriculoventricular (AV), el haz de His,
las dos ramas del haz de His y sus divisiones, con sus respectivas redes de Purkinje.
Cuando el estímulo llega a la unión Purkinje - músculo, se produce el acoplamiento
excitación - contracción.
Figur
a 6.10. Diagrama del sistema específico de conducción del impulso desde el nodo
sinusal al miocardio ventricular. La rama derecha del haz de His y las tres divisiones de
la rama izquierda originan las redes de Purkinje que están interconectadas (1, 2, 3 y 4).
Estas fuerzas eléctricas generadas por el corazón tienen una representación vectorial.
Hay que recordar que un vector es una magnitud con una dirección y un sentido, que
puede representarse gráficamente. Para explicar la morfología electrocardiográfica se
recurre a la teoría vectorial. De acuerdo con ella, la activación de las estructuras
cardíacas (aurículas y ventrículos) origina la formación de distintos vectores de
activación que nos permiten explicar la morfología electrocardiográfica. Para ello, se
considera que se graba una deflexión positiva en la zona (derivación) donde está
emplazado un electrodo de registro cuando éste está enfrentado con la carga positiva de
un vector (cabeza), y una deflexión negativa si el electrodo está enfrentado con la carga
167
negativa del vector (cola), independientemente de que el vector se aleje o se acerque.
En la Figura 6.11 se expone gráficamente este fenómeno, considerando que un vector
es como un carro con los faros encendidos, los cuales corresponden a la cabeza del
vector, y que, con independencia de que vaya hacia delante o marcha atrás, iluminara
siempre la zona que quede enfrentada con los faros.
La activación de una estructura cardíaca, igual que la activación de una célula cardíaca,
implica primero la despolarización de dicha estructura, después su repolarización y más
tarde, una fase de reposo eléctrico (polarización).
Una célula o una estructura cardíaca esta polarizada cuando existe un equilibrio entre
las cargas eléctricas positivas de la superficie externa y las cargas eléctricas negativas
del interior celular. La despolarización celular significa la pérdida de este equilibrio, por
hacerse negativo el exterior celular y positivo el interior, y la repolarización celular
significa la recuperación del equilibrio perdido.
169
Figura 6.13 A, B y C En la parte izquierda (dentro del esquema del corazón) se ha
dibujado de forma esquemática cómo se originan tridimensionalmente las asas de P,
QRS y T, de acuerdo con la teoría vectorial. En la parte derecha se ve la proyecci6n del
asa de P (A), QRS (B) y T (C) en el plano frontal y la correlación asa-morfología
electrocardiográfica en la derivación I. D. Las tres asas, juntas en el plano frontal, con el
ECG resultante.
6.8.1. Introducción.
Se expone en primer lugar los tipos y las propiedades electrofisiológicas de las distintas
células cardíacas y las características de la activación celular, haciendo hincapié en el
concepto de dipolo de despolarización y repolarización y en la expresión vectorial de
estos dipolos.
Desde el punto de vista anatómico-funcional, las células cardíacas son de tipo contráctil
y específico.
Las células contráctiles, cuya función principal es la mecánica dc bomba, son todas ellas
parecidas entre sí (largas y estrechas) y desde el punto de vista ultra estructural están
formadas por tres componentes: la membrana celular (sarcolema) presenta unas
invaginaciones que constituyen el llamado sistema T, que llevan la energía eléctrica al
170
interior celular. El sistema T comunica con el sarcómero mediante el retículo
sarcoplásmico, que es el lugar donde se almacena el calcio necesario para la
contracción. La membrana celular presenta unos poros de 3,5 Å de radio, que permiten
el intercambio iónico. Además de las invaginaciones del sistema T, la membrana celular
presenta, en la parte final de cada célula contráctil, los denominados discos intercalados,
que facilitan la conducción de estímulos de unas células a otras. El sarcómero, que es la
unidad contráctil, está formado por diferentes bandas proteicas de actina y miosina que,
juntas, forman las miofibrillas. La llamada banda Z separa los filamentos de actina de
dos sarcómeros. En las mitocondrias se forman y almacenan los compuestos de alta
energía (ATP) necesarios para la contracción. Electrofisiológicamente las células
contráctiles y las de Purkinje corresponden a las células denominadas por Cranefield, de
acuerdo con su capacidad de respuesta durante la despolarización sistólica, de
respuesta rápida (Figura. 16A), aunque tienen una capacidad de despolarización
diastólica espontánea nula o disminuida (poco o nada de automatismo).
Figura 6.14. A. Fibra miocárdica contráctil (de respuesta rápida). B. Fibra miocárdica
automática (de respuesta lenta). PTD= potencial transmembrana diastólico; PAT =
potencial de acción transmembrana; PU = PT = potencial umbral.
6.8.2.1. Propiedades
6.8.2.1.1. Automatismo.
El automatismo normal del corazón depende, pues, del nodo sinusal, pero existe
automatismo subsidiario en otras zonas menos ricas en células de características
parecidas a las sinusoidales, como el nodo AV, e incluso en el sistema de His-Purkinje,
en donde la mayoría de las células son de respuesta rápida y hay cierto grado de
automatismo. La frecuencia de descarga de una célula automática depende del tiempo
que tarda la curva de despolarización diastólica espontánea (prepotencial o curva de
potencial transmembrana diastólico) en alcanzar el potencial umbral, de forma que, a
menos tiempo, lo que equivale a una despolarización diastólica más rápida, corresponde
una frecuencia de descarga más alta. Esta frecuencia de descarga depende de tres
factores (Figura 6.16): a) rapidez de ascenso de potencial transmembrana diastólico
(PTD), prepotencial o fase 4: a mayor rapidez de ascenso, mayor frecuencia de
descarga, y a la inversa; b) nivel del potencial umbral (PU): cuanto más bajo (más lejos
del cero), mayor es la frecuencia de descarga, y a la inversa, y c) nivel inicial del PTD:
cuanto más negativo (más lejos del cero), menor es la frecuencia de descarga, y a la
inversa.
172
Figura 6.15. El estímulo, originado en el nodo sinusal, se propaga hacia la unión AV y el
haz de Purkinje ventricular.
Figura 6.16. Factores que influyen en el aumento del automatismo (líneas discontinuas).
A. Despolarización diastólica más rápida. B. Disminución del potencial umbral. C.
Potencial transmembrana diastólico (PTD) más negativo.
6.8.2.1.2. Excitabilidad. Período refractario.
173
Es la propiedad que tienen todas las células cardíacas de responder a un estímulo
eficaz. Las células automáticas se auto-excitan, mientras que las células contráctiles se
excitan porque reciben otro estímulo proveniente de una célula vecina (Figura 6.15).
Figura 6.17. Potencial de acción transmembrana de una fibra de respuesta rápida con la
duración del periodo refractario absoluto (PRA), el periodo refractario relativo (PRR) y el
tiempo de recuperación total (TR total). A = zona de respuestas locales. B = zona de
respuestas propagadas mediante un estímulo supra umbral.
174
Figura 6.18. Diagrama de la ubicación aproximada en el ECG clínico del periodo
refractario absoluto (PRA), el periodo refractario relativo (PRR), el periodo vulnerable
(PV) y el periodo supernormal.
6.8.2.1.3. Conductibilidad
Es la capacidad que tienen las células cardíacas de conducir los estímulos a las
estructuras vecinas. Puede ser de dos tipos (Figura 6.19): regenerativa, en las células de
respuesta rápida, y decremental, en las células de respuesta lenta. Las velocidades de
conducción normales en las distintas estructuras cardíacas son (Figura 6.20): aurículas,
1-2 m/seg; nodo AV, 0,02-0,05 m/seg; sistema de His-Purkinje, 1,5-3,5 m/seg;
ventrículos, 0,4 m/seg.
175
Figura 6.19. Arriba. Ejemplo de conducción regenerativa y decremental. Abajo.
Potenciales de acción transmembrana de aurícula, zonas AN, N, NH de la unión AV y
del haz de His.
176
Figura 6.20. Esquema de la morfología de los potenciales de acción transmembrana de
las diferentes estructuras del sistema de conducción y de la velocidad de conducción (en
m/seg) del estímulo a través de las estructuras.
Las células cardíacas contráctiles están polarizadas en la diástole, lo que significa que
existe un equilibrio entre las cargas eléctricas positivas de fuera (fundamentalmente Na+
y Ca++) y las negativas de dentro (sobre todo aniones no difusibles que son negativos y
dominan ampliamente la positividad del K+, que es el ion intracelular más importante)
(Figura 6.21).
177
Figura 6.21. Distribución iónica durante la sístole. Cuanto mayor es el tamaño de las
letras, más predominante es el ión en el interior o en el exterior.
Figura 6.22. Diferencia de potencial entre el exterior celular (+) y el interior (-).
La razón de que las células contráctiles en condiciones normales presenten un PTD
estable y las automáticas no, tiene una base iónica aún no del todo conocida.
Básicamente se explica porque en las células contráctiles existe durante la diástole un
178
auténtico reposo celular, porque hay un auténtico equilibrio entre las corrientes iónicas
que entran (corrientes de Na+ y Ca++) y salen (corrientes de K+) de la célula. La pérdida
del reposo celular, es decir, la presencia de un PTD más o menos ascendente que existe
en todas las células del SEC, se debe a que, en éstas, las corrientes de entrada de Na+
y Ca++ superan, en mayor o menor grado, a las de salida de K+. La corriente diastólica
de entrada de Na+ y Ca++ más importante es la denominada Ibi. La corriente diastólica
de salida de K+ más importante en las células de Purkinje, y probablemente en las
contráctiles, es la IK2, y en las células del nodo sinusal es la Ip. Cuando estas corrientes
de K+ se inactivan, el flujo iónico del interior celular de Na+ y Ca++, fundamentalmente a
través de la corriente Ibi, es superior a la salida de K+. El automatismo del nodo sinusal
es más importante que el de las fibras de Purkinje, porque la corriente diastólica de
salida dominante de K+ de las células del nodo sinusal (Ip) se inactiva más rápidamente
que la IK2 (Figura 6.23).
179
En esta situación existe una tendencia al cruce entre las curvas de permeabilidad
(conductancia, g, es decir, el valor inverso de la resistencia de una membrana al paso de
un ion) del K+ por la membrana, que están disminuyendo (o sea, que sale menos K+ al
exterior), y las curvas de conductancia del Na+ y Ca++ que están aumentando (es decir,
que entran más Na+ y Ca++ al interior). Cuando este cruce ocurre, se genera el
fenómeno de automatismo, que se pone de manifiesto porque empieza la
despolarización celular sistólica con el inicio de la formación de un PAT capaz de ser
propagado. El punto de cruce de las conductancias de Na+ y K+, que explica el
automatismo cardíaco y el inicio del PAT, se corresponde con el PU y es distinto en las
células contráctiles y en las del SEC. (Figuras 6.14 y 6.24).
Figura 6.24. Curvas de permeabilidad de una célula automática (A) y de una contráctil (B).
Todas las células del SEC tienen cierto grado de despolarización diastólica, que explica
que el PTD sea ascendente. El nodo sinusal es la estructura que presenta un PTD con
ascenso más brusco, debido a su capacidad de alcanzar antes el PU, al cruzarse antes
las conductancias de Na+ y K+. Como consecuencia de todo esto, el nodo sinusal puede
generar antes que ninguna otra estructura cardíaca un PAT capaz de ser transmitido.
180
No todas las células cardíacas dan origen al mismo PAT. Fundamentalmente existen
dos tipos, denominados por Cranefield PAT de respuesta rápida y PAT de respuesta
lenta (Figura 6.25).
Figura 6.25. Relación entre el valor del potencial diastólico (en mv) y la velocidad de
respuesta.
181
El PAT de las células de respuesta lenta (automática) se genera espontáneamente,
porque la inactivación de la corriente de salida de K+ (Ip) es mucho más precoz e
importante que en las otras células del SEC. Esto determina una entrada
progresivamente mayor de Na+ y Ca++ (corrientes Ibi) y facilita el cruce espontáneo de
la gNa+ y la gK+, lo cual constituye la clave de la capacidad de automatismo de dichas
células (Figura 6.24). El ascenso lento de la fase 0 del PAT de las células de respuesta
lenta se explica porque no hay una brusca entrada de Na+ y porque el PTD es menos
negativo y, por consiguiente, la velocidad de ascenso del PAT es menor (Figura 6.25).
Tanto en las células de respuesta rápida como en las de respuesta lenta, los cambios
iónicos mencionados originan cambios eléctricos de forma que al final de la
despolarización (final de la fase 0), las cargas eléctricas se han modificado, existiendo
ahora un predominio negativo en el exterior (por la entrada de Na+ y, al final, en menor
grado de Ca++). El paso de una situación a la otra ocurre de forma progresiva (Figura
6.26), a medida que se van produciendo los cambios iónicos a través de la membrana
con distintos niveles de voltaje.
La onda de despolarización auricular se propaga muy lentamente por la parte alta (AN) y
media (N) del nodo AV, debido a la presencia de células de respuesta lenta, que
determinan una conducción decremental. La conducción no se detiene porque, al llegar
a la parte baja del nodo (zona NH), las células son predominantemente de respuesta
rápida y la velocidad de conducción es mayor. Al llegar el estímulo al haz de His, la
velocidad de conducción aumenta mucho. Las fibras del haz de His ya están
predestinadas hacia la rama derecha o izquierda.
Una vez que el estímulo llega a las dos ramas, se transmite por ellas a una velocidad de
conducción parecida a la del haz de His (l.5 a 2 m/seg).
La despolarización ventricular se puede dividir en tres fases cada una de las cuales se
puede expresar por un vector. Durante la primera fase (10 mseg) la despolarización
inicial de los ventrículos y de la parte media del tabique origina un vector pequeño que
va hacia la derecha, hacia delante y hacia arriba o abajo (con mayor frecuencia hacia
arriba); durante la segunda fase (30 a 40 mseg) se despolariza la mayor parte de la
pared libre de ambos ventrículos y la parte baja del tabique, originándose un vector
importante dirigido hacia la izquierda algo hacia atrás y en general hacia abajo en la
tercera fase (15 a 25 mseg) se origina un vector pequeño dirigido hacia arriba algo
hacia atrás y a la derecha.
183
Repolarización ventricular. Asa de T.
184
Figura 6.27. Secuencia de activación cardiaca.
Cuando se registra un ECG, se inscribe una serie de ondas por cada ciclo cardíaco.
Einthoven denominó a estas ondas P, Q, R, S y T, de acuerdo con su orden de
inscripción, correspondiendo la onda P a la despolarización auricular, el complejo QRS a
la despolarización ventricular y la onda T a la repolarización ventricular (Figura 6.28). En
ocasiones, a continuación de la onda T se graba una pequeña onda llamada U.
Figura 6.28. Relaciones temporales entre las diferentes ondas del ECG y
nomenclatura de los diferentes intervalos y segmentos.
El complejo QRS puede tener distintas morfologías, con deflexión negativa inicial o sin
ella. Si esta existe, se llama onda Q. La onda R es la deflexión positiva y la onda S es la
deflexión negativa que sigue a una onda R. Si hay varias ondas R o S, se numeran de la
siguiente forma: R, R', R" y S, S', S". El voltaje de las ondas se mide en sentido
horizontal. En un complejo QRS las ondas de buen voltaje se señalan con una letra
mayúscula y las más pequeñas con una letra minúscula. El complejo exclusivamente
negativo se denomina QS.
186
La repolarización auricular (ST-Ta) queda enmascarada, en condiciones normales, por
las potentes fuerzas de despolarización ventricular.
Son las que registran las diferencias de potencial entre dos puntos del cuerpo. Las
derivaciones bipolares tienen dos polos, uno positivo y otro negativo, y se denomina
línea de derivación a la que une estos dos polos.
Figura 6.29. Silueta humana con los cables de las derivaciones I, II y III.
Einthoven consideró estas tres derivaciones bipolares (I, II y III) como un circuito
cerrado, y la suma total de las diferencias tensionales entre distintos puntos que
constituyen un circuito cerrado.
187
Con el fin de entender mejor la morfología del ECG en las derivaciones bipolares, I, Il y
III, Einthoven tomó la segunda derivación con una polaridad invertida, por lo que utilizó:
Esta ley, que debe cumplirse siempre en electrocardiografía, nos permite asegurar que
el ECG está correctamente registrado (cables bien colocados) y rotulado.
Sobre la base de la ley enunciada, Einthoven, partiendo del principio de que era igual
colocar los electrodos en los brazos o en las piernas, que en las raíces de los miembros
(hombro derecho, hombro izquierdo y pubis) y considerando que el tronco humano es
una esfera conductora homogénea que tiene en su centro el corazón, describió su
triángulo, cuyas características se ilustran en la Figura 6.30.
Las derivaciones del plano horizontal que se utilizan en electrocardiografía clínica son
las precordiales monopolares, en las que el electrodo se coloca en distintos puntos del
precardio (Figura 6.32). Normalmente se utilizan seis derivaciones (de V1 a V6).
189
Figura 6.32. Derivaciones monopolares precordiales.
1. Electrocardiograma.
2. Vector cardiograma.
3. Magneto cardiograma.
190
6.9.4.1. Electrocardiograma.
El ECG se emplea como señal para el diagnóstico (no solamente cardíaco), como
referencia temporal en el registro de otras señales (por ejemplo, en fonocardiografía y
para monitorización). En los dos primeros casos, el instrumento de medida debe poder
obtener un registro gráfico, mientras que en el tercero basta la presentación continua,
normalmente en la pantalla de un tubo de rayos catódicos.
191
Los parámetros considerados para analizar la señal, normalmente de forma empírica,
son el ritmo y su uniformidad, y la presencia, amplitud, forma y separación de las
distintas ondas. Las amplitudes están asociadas directamente al estado de las células
del miocardio, mientras que los tiempos vienen condicionados por las células nerviosas.
Es, pues, muy importante no alterar los parámetros durante la medida ya que, de lo
contrario, se pueden producir errores de interpretación.
Para el registro de las doce derivaciones habituales, se mide una derivación cada vez, o
bien, se hace de tres en tres si se dispone de este número de canales de registro. El
equipo incorpora para ello un conmutador de selección. La conexión al paciente se hace
mediante 5 o 10 hilos de color distinto, conectado cada uno a un electrodo: tres para las
derivaciones a las extremidades, uno o seis para las derivaciones precordiales, y otro
para un electrodo de referencia, conectado en la pierna derecha u otro punto del cuerpo.
192
Figura 6.34. Esquema de un preamplificador de electrocardiograma (ECG).
CAPÍTULO 7.
ELECTROENCEFALOGRAFÍA.
Introducción.
193
La Electroencefalografía es el registro y evaluación de los potenciales eléctricos
generados por el cerebro y obtenidos por medio de electrodos situados sobre la
superficie del cuero cabelludo.
Tallo cerebral.
Cerebelo.
Cerebro.
El tallo cerebral es la parte evolutivamente más antigua del encéfalo; conecta entre sí el
córtex cerebral, la médula espinal y el cerebelo; controla asimismo los ritmos cardíaco y
respiratorio, y es el centro de diversos reflejos motores.
194
Figura 7.1. Vista lateral izquierda del encéfalo y tronco del encéfalo.
La subdivisión más importante del encéfalo es la corteza cerebral que contiene unos 9
de los 12 billones de neuronas que hay en el cerebro humano. La corteza es en realidad
una capa más bien fina de neuronas situada en la periferia del cerebro que contiene
muchas fisuras o pliegues entrantes para dar una mayor área superficial. Algunas de las
fisuras más profundas, llamadas también surcos se utilizan como límites para dividir la
corteza en ciertos lóbulos. En la figura 7.3 se muestran varias de las más prominentes,
junto con la situación de los lóbulos más importantes.
195
Figura 7.2. Vista lateral de la sección media del encéfalo y tronco del encéfalo.
Todas las entradas sensoriales alcanzan con el tiempo la corteza cerebral donde ciertas
regiones parecen estar relacionadas específicamente, con ciertas modalidades de
196
información sensitiva. Otras regiones de la corteza parecen estar relacionadas
específicamente con las funciones motoras. Por ejemplo, todas las entradas sensoriales
somáticas (calor, frío, presión, tacto, etc.) llegan a una región de la superficie cortical
justo por detrás del surco central, abarcando la parte delantera del lóbulo parietal. Las
entradas sensoriales somáticas de cada punto del organismo 11evan a una parte
específica de esta región, estando las entradas procedentes de las piernas y los pies
más cerca de la parte superior, a continuación, el torso, seguido de brazos, manos,
dedos, cara, lengua, faringe y finalmente las regiones intra-abdominales en la parte
inferior. La cantidad de superficie adjudicada a cada parte del organismo es proporcional
al número de nervios sensitivos que contiene y no a su tamaño físico real. Una
representación gráfica de la disposición de estas áreas, denominada homúnculo parece
una figura humana grotesca, cabeza abajo, con grandes dedos, cara, labios y lengua.
Justo delante del surco central esté del lóbulo frontal, donde se encuentran las
principales neuronas motoras que van a los distintos músculos del cuerpo. Las neuronas
motoras también están distribuidas en la superficie de la corteza de una forma similar a
las neuronas sensitivas. La situación de las distintas funciones motoras también se
197
puede representar con un homúnculo igualmente boca abajo, pero proporcionado según
el grado de control muscular ofrecido por cada parte del organismo.
La parte delantera del cerebro llamada a veces lóbulo pre frontal, contiene neuronas
para algunas funciones de control motor especiales, incluyendo el control de movimiento
de los ojos.
El lóbulo occipital está muy hacia atrás de la cabeza, sobre el cerebelo. El lóbulo
occipital contiene la corteza visual donde se proyectan en una representación geográfica
las formas obtenidas en la retina.
La entrada sensitiva auditiva se puede seguir hasta los lóbulos temporales de la corteza,
situados justo por encima de los oídos. Las neuronas que responden a las distintas
frecuencias de la entrada de sonido se encuentran dispersas por toda la región, estando
situadas las frecuencias más altas hacia la parte delantera y las más bajas hacia la parte
trasera.
198
El olfato y el gusto no tienen situaciones específicas sobre la corteza cerebral, aunque
en la percepción del olor interviene un bulbo cercano al centro del cerebro.
El tejido nervioso presenta como una de sus funciones básicas la capacidad de generar
potenciales eléctricos que son la base de la excitabilidad del organismo. Para
comprender la forma en que se generan estos potenciales es preciso un conocimiento
de la estructura y las conexiones de aquellas partes del cerebro que los originan. En
rigor, todo el sistema nervioso posee capacidad electrogénica. Sin embargo, para los
propósitos del EEG bastará con considerar la corteza cerebral y las regiones
directamente relacionadas con ella.
Histológicamente, la neocorteza está constituida por seis capas celulares (Figura 7.5):
199
Figura 7.5. Sección de la corteza parietal mostrando las seis capas histológicas.
200
Un fragmento de tejido cortical aislado es asiento de actividad eléctrica espontánea. Esta
actividad se caracteriza por salvas de ondas lentas sobre las que se superponen ritmos
rápidos. Entre una salva y otra aparecen períodos de silencio eléctrico.
Generador A: Situado a unas 500 micras de la superficie cortical está producido por la
despolarización de las dendritas apicales de las células piramidales. Su actividad
produce ondas negativas en la superficie de la corteza. No tiene relación con la
descarga de potenciales de acción de las células.
Generador C: Está situado también a 900 micras, pero su actividad determina ondas
negativas en la superficie cortical y es el resultado de la hiperpolarización de las células.
Su actividad coincide con una interrupción de la descarga de potenciales de acción en
las células piramidales.
201
7.2. Captación del EEG.
7.2.1.1. Superficiales.
202
Figura 7.6. A. Esquema de un electrodo de contacto. B. Colocación de los electrodos de
contacto.
203
el estudio de la cara basal del encéfalo se utilizan electrodos especiales como el
faríngeo, el esfenoidal, y el timpánico.
Aunque hay varios sistemas diferentes (Illinois, Montreal, Aird, Cohn, Lennox, Merlis,
Oastaut, Schwab, Marshall), el sistema internacional Diez-Veinte es el más utilizado en
el momento actual. Para situar los electrodos según este sistema se procede de la forma
siguiente:
Se mide la distancia entre el nasión y el inión pasando por el vertex. El 10% de esta
distancia sobre el nasión señala el punto Fp (Frontal Polar). El 10% de esta
distancia sobre el anión señala el punto O (Occipital) (Figura 7.8).
Figura 7.8. A. Vista de perfil. B. Vista superior. Fp, punto frontal polar; O, punto occipital.
Entre los puntos FP y O se sitúan otros tres puntos espaciados a intervalos iguales
(entre cada dos el 20/o de la distancia nasion-inion). Estos tres puntos son, de
delante hacia atrás, el Fz (Frontal) el Cz (Central o Vertex) y el Pz (Parietal). No
deben confundirse Fz, Cz o Pz cuyos subíndices significan cero (zero en inglés)
con la letra O referente a los electrodos occipitales (Figura 7.9).
204
Figura 7.9. A. Vista perfil. B. Vista superior. Fz, punto frontal; cz, punto central; Pz,
punto parietal.
Se mide la distancia entre los puntos preauriculares (situados por delante del
pabellón auditivo) pasando por el vertex (Cz). El 10% de esta distancia marca la
posición de los puntos temporales mediales, T3 (izquierdo) y T4 (derecho) (Figura
7.10).
Figura 7.10. Medición coronal lateral. A. Vista frontal. B. Vista superior. Situación
de los electrodos T3 y T4.
205
Un 20% de la medida por encima de los puntos temporales medios se colocan los
electrodos C3 (izquierda) y C4 (derecha). El vertex es ahora el punto de
intersección entre la línea anteroposterior y la línea coronal lateral (Figura 7.11).
Figura 7.11. A. Vista de frente. B. Vista superior. Situación de los electrodos C3 y C4.
Figura 7.12. A. Vista de perfil. B. Vista superior. Situación de los electrodos F3 y F4.
Los electrodos P3 y P4 (izquierda y derecha, respectivamente) equidistan entre el
punto P medio y la línea de los electrodos temporales (Figura 7.13).
206
Figura 7.13. A. Vista de perfil. B. Vista superior. Situación de los electrodos P3 y P4.
Se mide la distancia entre el punto medio Fp y el punto medio O a través de T3. El
10% de esta distancia a través de Fp corresponde a los electrodos FP1 y FP2. El
10% de esta distancia a través de O corresponde a los electrodos O1 y O2.
El electrodo F7 (y el F8) se sitúa equidistante entre los puntos FP1 (ó FP2) y entre T3 (ó
T4).
207
Figura 7.14. A. Vista de perfil. B. Vista superior. Situación de los electrodos F7, F8, T5,
T6, FP1, P2, O1 y O2.
208
Figura 7.15. A. Vista de perfil. B. Vista superior. Situación de los electrodos A1 y A2.
Como regla general, los electrodos del lado izquierdo llevan numeración impar mientras
que los del lado derecho la llevan par. Además, como ya se dijo, los electrodos de la
línea media reciben el subíndice z (por zero, cero en inglés).
La versión europea del sistema presenta ligeras variaciones (Figura 7.16): Los
electrodos temporales mediales, llamados T3 y T4 se representan como Tm
(temporal medial). Paralelamente, los electrodos F7 y F8, T5 y T6 son
denominados como temporales anteriores Ta (F7 y F8) y temporales posteriores Tp
(T5 y T6). Es decir que la versión europea considera los frontales superiores F7 y
F8 como temporales anteriores, habiendo así una pequeña diferencia de posición.
Los electrodos F3 y F4 son representados como Fs (frontales superiores) y los P3 y
P4 como P (parietales). Finalmente, los centrales C3 y C4 son representados como
CI y CD.
Además, la versión europea considera dos electrodos más, los mastoideos, colocados
junto a las apófisis mastoideas (M).
209
Figura 7.16. Sistema de colocación de electrodos según versión europea. A. Vista de
perfil. B. Vista superior.
Para proceder a registrar el EEG se parte de una serie de electrodos situados sobre la
superficie del cuero cabelludo en situaciones precisas, tal como ya se ha explicado,
determinadas según el sistema internacional diez-veinte. Cada electrodo es un punto de
registro. Sin embargo, para poder realizar este registro es preciso disponer de dos
terminales. Por esto habrá que seleccionar cuáles de los electrodos deben ser la fuente
de señal registrada en el electroencefalógrafo, dependiendo del número de canales
disponibles y del propósito específico del registro a realizar. En este aspecto, la primera
decisión que se deberá tomar será el seleccionar entre Registros Monopolares y
Registros Bipolares.
210
Figura 7.17. Esquema que representa el montaje para un registro monopolar.
Teóricamente este electrodo debe estar situado a potencial cero, aunque esto en la
práctica real nunca hay seguridad de que sea posible de conseguir. Por esto se emplean
referencias aproximadas como son el uso de electrodos en el lóbulo de la oreja, en el
mentón o en el mastoides. Otra forma de conseguir un electrodo referencial consiste en
reunir todos los demás electrodos entre sí, con lo cual tendremos un punto cuyo
potencial será la suma de los potenciales de cada uno de ellos dependiendo del número
de canales disponibles.
211
Figura 7.18. Esquema del sistema Wilson en el registro del EEG (véase explicación en el
texto). E1-E8, electrodos; A, amplificador.
Presumiblemente, esta suma será cero, con lo que se tendrá ya el punto que se
buscaba. Pero con esto, solo se podría registrar la actividad de un electrodo cada vez,
ya que todos los demás estarían cortocircuitados entre sí. Para evitar este problema, la
interconexión entre todos se realiza por medio de resistencias de valor moderadamente
bajo (entre 1 y 1.5 Mohmios). Este es el llamado sistema Wilson (Figura 7.18) y con él se
pueden tomar tantos pares referencial-activo como se desee, por supuesto,
dependiendo del número de canales disponibles en el equipo.
Existen otros tipos de referencia diferentes que se utilizan, por ejemplo, para reducir
algunas interferencias particulares. Por ejemplo, para reducir los artefactos debidos al
electrocardiograma, muy corrientes en los registros referenciales, se disponen dos o
más electrodos en lugares próximos al corazón (fuera del cráneo) y se unen entre sí. De
esta forma en ellos se cortocircuita la señal electrocardiográfica con lo que ésta se
atenúa en gran medida. Incluso es posible balancear, por medio de un mando adecuado,
el punto de referencia virtual formado con estos electrodos para asegurar una
atenuación más completa de la señal ECG indeseada.
En los Registros Bipolares se toman parejas de electrodos, dos a dos y se registran las
diferencias de tensión entre cada par de puntos (Figura 7.19). Los dos electrodos de
cada pareja son activos.
212
Figura 7.19. Esquema de un montaje para un registro bipolar. El electrodo a está a un
potencial de +5, el electrodo b a un potencial de +2, registrándose así un potencial de
(+5) – (+2) = +3.
213
Por otra parte, los montajes también han sido clasificados por la Federación
Internacional de EEG y Neurofisiología en Longitudinales y Transversales.
Además, de estos montajes, existen otros muy usados, como las Zetas del Standard
Cero, o las triangulaciones, pero no están normalizados por la Federación Internacional.
Poseen amplitudes que van desde los 10 mV en registros sobre el córtex, a 100 mV en
la superficie del cuero cabelludo. Las frecuencias de estas ondas se mueven entre 0,5 y
100 Hz y dependen mucho del grado de actividad del córtex cerebral. La mayoría de las
veces estas ondas no poseen ninguna forma determinada, en algunas son ritmos
normales que suelen clasificarse en ritmos a, b, q y d. En otras poseen características
muy específicas de patologías cerebrales como la epilepsia (Figura 7.21).
214
Figura 7.21.- Ritmos normales en electroencefalografía.
Las ondas b poseen frecuencias entre 14 y 30 Hz, aunque pueden llegar hasta los 50
Hz; se registran fundamentalmente en las regiones parietal y frontal. Se dividen en dos
tipos fundamentales, de comportamiento muy distinto, b1 y b2. Las ondas b1, tienen una
frecuencia doble a las ondas b2 y se comportan de forma parecida a ellas. Las ondas
215
b2, aparecen cuando se activa intensamente el SNC o cuando el sujeto está bajo
tensión.
216
Figura 7.22. EEG durante distintas fases del sueño.
Por último, señalaremos que las distintas fases del sueño se suelen repetir de forma
cíclica durante la noche. Uno de los usos fundamentales del EEG está en el diagnóstico
y localización de la epilepsia, que tiene su origen en una activación excesiva de parte o
de todo el SNC. Existen tres grupos básicos de epilepsia: la epilepsia generalizada –
que abarca todo el cerebro –, la parcial – que sólo lo hace en parte – y la de difícil
clasificación – que no corresponde a ninguno de los tipos anteriores.
Algunos ejemplos de crisis más frecuentes que presentan sujetos con epilepsia
generalizada son las crisis tónico- clónicas (grand mal), las crisis mioclónicas y las crisis
de ausencia. Las crisis tónico-clónicas parecen tener origen en la hiperexcitabilidad o
anormalidad de las neuronas del sistema de activaci6n reticular. Las descargas se
expanden por todo el sistema nervioso dando lugar a convulsiones del cuerpo entero
que dura desde algunos segundos hasta 3 o 4 minutos.
217
Después del ataque el sujeto puede permanecer inconsciente bastantes minutos (hasta
una hora). El EEG presenta, en la fase tónica, ondas de frecuencia igual a las ondas a
pero de mayor amplitud y registrables desde cualquier punto del córtex (Figura 7.23b).
218
CAPÍTULO 8.
ELECTROMIOGRAFÍA.
Introducción.
219
musculares que éste inerva constituye la unidad funcional básica del sistema muscular y
se conoce por unidad motora, UM (Figura 8.1). Cuando el potencial de acción del nervio
alcanza el punto en el que éste se une con el músculo, se libera una cierta cantidad de
un transmisor químico (la acetilcolina) que origina la despolarización local de la
membrana de la fibra muscular. El transmisor es rápidamente neutralizado por una
sustancia denominada estereato de acetilcolina, quedando la unión mioneuronal libre
para una nueva excitación. Al potencial complejo que originan las fibras de una UM se le
conoce por potencial de la unidad motriz (PUM) y es la suma de los potenciales de
acción de las distintas fibras de la UM (potenciales de acción cuasi-sincrónicos en UM
normales).
Con todo esto, un músculo puede considerarse como un conjunto de unidades motoras
dispuestas en paralelo, entre las cuales se encuentran otras fibras musculares
modificadas llamadas Husos Musculares que contienen elementos sensoriales que
perciben las tracciones en el músculo y sirven para el servocontrol de la posición del
músculo (Figura 8.2). El significado de una orden de excitación dirigida a un músculo es
que un número mayor o menor de unidades motoras recibirán una orden de
despolarización. Una orden motora puede ser mínima, si solo ordena actividad a una
única unidad motora, o máxima, si ordena la contracción completa del músculo. La
actividad de una unidad motora es el elemento individualizable mínimo de la contracción
muscular. En el electromiograma (EMG) se registra la actividad del músculo y en él se
puede distinguir la activación de sus unidades motoras, las variaciones características
de estas activaciones y las relaciones de unas unidades con otras.
220
Figura 8.2. Segmento de un haz de fibrillas musculares mostrando un huso con la
terminación sensitiva anulo- espinal.
Se comprende que el número de fibras musculares que contiene cada unidad motora
determina la finura o la delicadeza de los movimientos que puede ejecutar. Este número
de unidades recibe el nombre de tasa de inervación y cuanto menor sea, es decir,
muchas motoneuronas y pocas fibras musculares, más flexibilidad motora tendrá el
músculo. Por lo tanto, la fuerza de la contracción muscular se gradúa controlando el
número de axones que se estimulan y la frecuencia de estimulación de cada axón.
Cada unidad motora ocupa un espacio en el cual es posible registrar su actividad. Este
espacio es algo mayor que el que físicamente ocupa sus fibras. De hecho, las unidades
no se recogen unas junto a otras, ni hay una frontera definida entre ellas; por el
contrario, sus fibras o grupos de fibras se entrelazan con las de unidades vecinas de tal
forma que en una reducida sección transversal de músculo conviven varias unidades
motoras. En líneas generales, se puede afirmar que una unidad motora de un miembro
superior se corresponde con un área de unos 5 a 7 mm de radio. En los miembros
inferiores son 7 a 10 mm. Estos valores se han obtenido por medios electrofisiológicos.
221
Rapidez en el pronóstico, dando cuenta de los primeros signos de regeneración
nerviosa antes de cualquier manifestación clínica.
A) Electrodos.
Recogen la actividad eléctrica del músculo, bien por inserción dentro del mismo o bien a
través de la piel que lo recubre, previo acoplamiento por medio de pasta conductora.
Una primera clasificación de electrodos para EMG puede ser entre electrodos profundos
o superficiales.
222
Figura 8.3.- Esquema de los electrodos profundos.
B) Amplificadores.
Dado que los potenciales electromiográficos presentan una banda de frecuencia muy
variable, el amplificador debe ser capaz de responder con fidelidad a señales
comprendidas entre los 40 y los 10 KHz.
C) Sistemas de registro.
Los registros permanentes pueden realizarse sobre papel, por medio de plumillas y tinta
como en electroencefalografía, aunque este procedimiento ha caído en desuso; la
elevada inercia de las plumillas impide un registro fiel de ciertas formas de onda.
D) Altavoz.
224
musculares. Son característicos de músculos en los que la continuidad entre el axón
motor y la fibra muscular se ha interrumpido.
Dentro de la actividad voluntaria, los potenciales de unidad motriz (PUM) son el objeto
principal de estudio. Consisten en la suma de distintos potenciales de acción de grupos
de fibras musculares que se están contrayendo casi sincronizadamente. Pueden ser
monofásicos, bifásicos o trifásicos y, en ocasiones, polifásicos con cinco o más fases. Su
duración está comprendida entre 2 y 15 ms y su amplitud entre 100 pV y 2 mV, aunque
estas magnitudes dependen mucho del tipo de electrodos empleado y del músculo
considerado (número de fibras de la UM) (Figura 8.5.a)
Figura 8.5.a PUM de un sujeto normal; b. PUM polifásicos en una neuropatía periférica;
c. PUM de un sujeto normal al ir aumentando el nivel de contracción.
a) Denervación:
c) Neuropatías periféricas:
d) Bloqueo neuromuscular:
e) Enfermedades musculares:
Incluyen enfermedades tan diversas como las distrofias musculares, las miopatías
adquiridas, las miopatías de tipo endocrino y un grupo diverso de desórdenes de
origen congénito. Los registros electromiográficos suelen mostrar anormalidades en
las características de los PUM (polifases), aunque el número de UM activadas suele
ser normal.
227
8.5.1. Electromiograma normal.
Habrá que tener en cuenta que el patrón interferencial depende de varios factores
además de la intensidad de contracción. En algunos músculos, como los gemelos, es
difícil conseguir un patrón interferencial tan bien integrado como en el tibial anterior.
Asimismo, el tipo de contracción isométrica o isotónica juega un papel importante. Por
tanto, la valoración del patrón interferencial constituye una variable influida por muchos
factores y que debe considerarse en el momento de instar el balance definitivo.
A) Morfología del potencial. Se trata de una forma bifásica con fase terminal de poca
amplitud y larga duración. La duración es de 1 ms y la amplitud es de 1 mv.
B) El Jitter. Cuando se estimula una fibra única es corriente que el estímulo también
alcance a una segunda fibra de la misma unidad motora. Esta, normalmente responde
con un potencial similar al registrado en la primera fibra, aunque suele presentar menor
amplitud. El tiempo que transcurre entre los dos potenciales es el intervalo interpotencial
y puede alcanzar varios milisegundos. Una propiedad de este intervalo es que
normalmente es muy estable entre descargas sucesivas. Esto se ve muy bien si el
primer potencial es utilizado para disparar el barrido del registro oscilográfico. En estas
circunstancias, el primer potencial se registra perfectamente estable al principio de cada
barrido, pero el segundo se ve oscilar levemente, dependiendo de las pequeñas
variaciones en el intervalo interpotencial (Figura 8.8). Esta variación es el llamado jitter.
En los casos en los que la sinapsis neuromuscular se encuentra perturbada, el intervalo
entre las dos respuestas es más variable y se puede ver el segundo potencial
adelantándose unas veces y retrasándose otras, es decir, el intervalo aumenta en
variabilidad.
229
Para registrar el jitter es preciso obtener un registro en el que se activen claramente dos
fibras pertenecientes a una misma unidad motora. Entonces se tomarán medidas del
intervalo entre un cierto número de casos restándose cada vez un intervalo del siguiente
y anotándose el valor absoluto de estas diferencias. Estos valores absolutos se suman y
se dividen por el número de casos estudiados con lo que se obtiene la diferencia
promedio. Para un músculo normal este promedio es de 20 microsegundos y valores
superiores a los 50 microsegundos en más del 5 al 10% de las unidades se deben
considerar patológicos. Otro método consiste en superponer diez registros sobre el
mismo oscilograma y medir el rango de variación entre la segunda respuesta más rápida
y la más tardía. Este rango multiplicado por 0.37 da una estimación bastante precisa del
valor del jitter. Algunos equipos miden el jitter automáticamente .
También puede medirse la densidad de fibra, o número de fibras de una unidad motriz
en el campo de un electrodo. El incremento de la densidad de fibra es un signo, entre
otros, de reinervación por adopción colateral.
(sigue gráfica...)
230
Figura 8.8. Registro electromiográfico de fibra única. Se observa el potencial de acción
de la fibra principal de la unidad motora con un intervalo entre espigas IE y la respuesta
de una segunda fibra colateral con un retardo IJ. En el registro inferior se representan las
dos respuestas con escala de tiempo ampliada. El rango de variación del intervalo entre
dos respuestas es el jitter.
Se colocan los electrodos de registro sobre el músculo bajo estudio, uno sobre el vientre
y el otro distalmente. Los electrodos de estimulación se colocan sobre el nervio que
gobierna el músculo estudiado. El electrodo de tierra se coloca entre los electrodos de
estímulo y de registro. Se estudiarán los músculos en los que se hayan apreciado
síntomas clínicos. En caso de que éstos no se manifiesten claramente, se estudia el
músculo abductor V, el abductor del pulgar o el primer interóseo dorsal. El estímu1o se
aplicará sobre el nervio cubital a nivel de1 codo y el electrodo de tierra, en la muñeca
(Figura 8.9).
1er. interóseo dorsal. Tierra (E): en la muñeca. Estimulación (S): en el nervio cubital.
El registro de la amplitud (valor pico a pico) del PAMC suele dar una buena idea del
diagnóstico de una anomalía en la función neuromuscular. Sin embargo, es mejor
calcular el área bajo la curva del PAMC en su porción negativa que corresponde a la
despolarización de las fibras musculares. Se considera que este procedimiento da una
idea mejor del número de fibras activadas por el estímulo.
En este análisis se utiliza la misma disposición descrita en los casos anteriores, si bien la
estimulación se aplica a 20 Hz. Con esto el músculo se tetaniza, es decir, se contrae de
forma sostenida con realización de un esfuerzo máximo. Se estudian entre 60 y 120
estimulaciones y sus correspondientes PAMC. En individuos sanos la respuesta a los
primeros 60 estímulos no se modifica o se incrementa levemente (Figura 8.12.A). En la
miastenia comienza reduciéndose para luego incrementarse, aunque nunca se
consiguen los niveles obtenidos para el primer estímulo. Este incremento es debido en
parte a la pseudo facilitación y en parte a una auténtica facilitación que sigue a la
activación repetitiva de las uniones neuromusculares.
234
En el síndrome de Lambert-Eaton todas las respuestas presentan una amplitud muy
baja, aunque se producen importantes incrementos entre los primeros y los últimos
estímulos. En el estímulo A120 se alcanzan amplitudes que superan en más del 300% a
la amplitud de A1 (Figura 8.12.B).
Figura 8.12. Registro de las respuestas obtenidas por estimulación a alta frecuencia (20
Hz). A. En condiciones normales. B. En el síndrome de Lambert-Eaton. Téngase en
cuenta la diferencia de escala en mV.
CAPÍTULO 9
235
EQUIPOS DE DIAGNÓSTICO Y TRATAMIENTO
TOMÓGRAFOS Y ELECTROBISTURÍS
Introducción
9.1. Tomografía.
La tomografía por emisión de positrones (PET: por las siglas en inglés de Positron
Emission Tomography), Figuras 9.1 y 9.2, es un tipo de procedimiento de medicina
nuclear que mide la actividad metabólica de las células de los tejidos del cuerpo. El PET,
es en realidad, una combinación de medicina nuclear y análisis bioquímico. Se utiliza
principalmente en pacientes que tienen enfermedades del corazón o del cerebro y
cáncer, el PET ayuda a visualizar los cambios bioquímicos que tienen lugar en el cuerpo,
como el metabolismo (proceso por el cual las células transforman los alimentos en
energía después de que han sido digeridos y absorbidos en la sangre) del músculo
cardíaco. La Tomografía por Emisión de Positrones es una técnica no invasiva de
diagnóstico e investigación por imagen capaz de medir la actividad metabólica de los
diferentes tejidos del cuerpo humano, especialmente del sistema nervioso central. Al
igual que el resto de técnicas diagnósticas en Medicina Nuclear, el PET se basa en
236
detectar y analizar la distribución que adopta en el interior del cuerpo un radioisótopo
administrado a través de una inyección. La diferencia entre este estudio y otros
exámenes de medicina nuclear es que el PET detecta el metabolismo dentro de los
tejidos corporales, mientras que otros tipos de exámenes de medicina nuclear detectan
la cantidad de sustancia radioactiva acumulada en el tejido corporal en una zona
determinada para evaluar la función del tejido.
Figura 9. 1. Imágenes: A) con TAC Transaxial del cerebro B) Con PET Transaxial.
Foto: Universidad de Michigan.
237
Figura 9.2. Imagen del cerebro por tomografía de emisión de positrones
(PET) Foto: Universidad de Michigan.
Los radionúclidos que se emplean en el PET son sustancias químicas como la glucosa,
el carbono o el oxígeno, que son utilizadas naturalmente por el órgano o tejido en
cuestión durante el proceso metabólico. Se agrega una sustancia radioactiva a la
sustancia química requerida para las pruebas específicas. Por ejemplo, en el PET
cerebrales, se aplica una sustancia radioactiva a la glucosa (azúcar en la sangre) para
238
crear un radionúclido denominado fluorodeoxiglucosa (FDG), ya que el cerebro utiliza
glucosa para su metabolismo. La FDG se utiliza en gran medida en los estudios de PET.
Pueden utilizarse otras sustancias para los estudios de PET, según el propósito del
examen. Si se estudia el flujo de sangre y la perfusión de un órgano o tejido, el
radionúclido puede ser un tipo de oxígeno, carbono, nitrógeno o galio radiactivo.
El PET utiliza un dispositivo de exploración (una máquina con un gran hueco en el centro
llamado Gantry) que detecta los positrones (partículas subatómicas) emitidos por un
radionúclido en el órgano o tejido que se estudia. La Figura 9.3 esquematiza el proceso
de captura del PET. La posibilidad de poder identificar, localizar y cuantificar el consumo
de glucosa por las diferentes células del organismo, ofrece un arma de capital
importancia al diagnóstico médico, puesto que muestra qué áreas del cuerpo tienen un
metabolismo glucídico elevado. Un elevado consumo de glucosa es, precisamente, la
característica primordial de los tejidos neoplásicos.
De esta manera es factible localizar los focos de crecimiento celular anormal en todo el
organismo ya que el PET no evalúa la morfología de los tejidos, sino su metabolismo y,
por ende, se puede detectar un crecimiento anormal de las células, tema que trata la
oncología.
Para detectar la propagación del cáncer a otras partes del cuerpo desde el sitio en
que apareció originalmente y para evaluar la eficacia de un tratamiento contra este
mal. También para ayudar a controlar y tratar el cáncer de pulmón mediante la
clasificación por etapas de las lesiones y el seguimiento del progreso de las lesiones
después del tratamiento.
Para diagnosticar demencias (trastornos relacionados con el deterioro de la función
mental) como la enfermedad de Alzheimer, así como otros trastornos neurológicos
como: Enfermedad de Parkinson (enfermedad progresiva del sistema nervioso en la
que se observa un leve temblor, debilidad muscular y un modo de caminar particular),
Enfermedad de Huntington (enfermedad hereditaria del sistema nervioso que causa
demencia progresiva, movimientos extraños involuntarios y una postura anormal),
Epilepsia (trastorno cerebral que provoca convulsiones recurrentes).
Para localizar la zona donde se realizará un procedimiento quirúrgico en el cerebro.
Para evaluar el cerebro después de un traumatismo y detectar hematomas (coágulos
de sangre), hemorragias o perfusión (flujo de sangre y oxígeno) del tejido cerebral.
Para identificar y cuantificar lesiones pulmonares o masas detectadas en radiografías
o tomografía computarizada (TC) de tórax.
240
La tomografía axial computarizada (TAC) es una prueba de diagnóstico radiológica
mediante la utilización de rayos X y procesamiento de las imágenes por ordenador.
Mediante el ordenador se reconstruyen los planos atravesados por los rayos X. La
imagen se construye midiendo la absorción de rayos X por el tejido atravesado.
TAC abdominal
TAC craneal
TAC torácico
TAC lumbosacro
TAC de órbitas
Para explicar el funcionamiento de esta técnica, el equipo emite un haz muy fino de
rayos X. Este haz incide sobre el objeto que se estudia y parte de la radiación del haz lo
atraviesa. La radiación que no ha sido absorbida por el objeto, en forma de espectro, es
recogida por los detectores. Luego el emisor del haz, que tenía una orientación
determinada (por ejemplo, estrictamente vertical a 90º) cambia su orientación (por
ejemplo, haz oblicuo a 95º). Este espectro también es recogido por los detectores. La
computadora suma las imágenes y las promedia. Luego, el emisor cambia su orientación
(por ejemplo, a 100º de inclinación). Los detectores recogen este nuevo espectro, lo
suman a los anteriores y promedian todos los datos. Esto se repite hasta que el tubo de
rayos y los detectores den una vuelta completa, momento en el que se dispone de una
imagen tomográfica definitiva y confiable. En la Figura 9.5 se explica el procedimiento
que permite la toma de un TAC. La parte a representa el resultado en imagen de una
sola incidencia o proyección (vertical, a 90º). Se trata de una representación
esquemática de un miembro, por ejemplo, un muslo. El color negro representa una
densidad elevada, la del hueso. El color gris representa una densidad media, los tejidos
blandos (músculos). El hueso, aquí, deja una zona sombreada. Los músculos, una zona
de penumbra. La parte b también representa el resultado en imagen de una sola
incidencia o proyección, pero con un ángulo diferente (horizontal, a 180º). En la parte c
se grafica qué hace la CPU con las dos imágenes. Aquí la zona de sombra ya está
limitada al centro de la figura, pero la imagen presenta unos perfiles muy diferentes al
objeto que se estudia (un cuadrado en vez de un círculo). En la parte d de la Figura 9.5
la CPU dispone de datos de cuatro incidencias: 45º, 90º, 135º y 180º. Los perfiles de la
imagen son octogonales, lo que la aproximan mucho más a los contornos circulares del
241
objeto real. Una vez que ha sido reconstruido el primer corte, la mesa donde el objeto
reposa avanza (o retrocede) una unidad de medida (hasta menos de un milímetro) y el
ciclo vuelve a empezar. Así se obtiene un segundo corte (es decir, una segunda imagen
tomográfica) que corresponde a un plano situado a una unidad de medida del corte
anterior.
Figura 9.5. Disposición de cuatro incidencias: 45º, 90º, 135º y 180º en la CPU de un
TAC.
A partir de todas esas imágenes transversales (axiales) la CPU reconstruye una imagen
bidimensional que permite ver secciones de la pierna (o el objeto de estudio) desde
cualquier ángulo. Los equipos modernos permiten incluso hacer reconstrucciones
tridimensionales. Estas reconstrucciones son muy útiles en determinadas circunstancias,
pero no se emplean en todos los estudios, como podría parecer. Esto es así debido a
que el manejo de imágenes tridimensionales no deja de tener sus inconvenientes. Como
casi todos los cuerpos son opacos, la interposición de casi cualquier cuerpo entre el
observador y el objeto que se desea examinar hace que la visión de éste se vea
obstaculizada. La representación de las imágenes tridimensionales sería inútil si no fuera
posible lograr que cualquier tipo de densidad que se elija no se vea representada, con lo
que determinados tejidos se comportan como transparentes. Aun así, para ver
completamente un órgano determinado es necesario mirarlo desde diversos ángulos o
hacer girar la imagen. Pero incluso entonces veríamos su superficie, no su interior. Para
242
ver su interior debemos hacerlo a través de una imagen de corte asociada al volumen y
aun así parte del interior no siempre sería visible. Por esa razón, en general, es más útil
estudiar una a una todas las imágenes consecutivas de una secuencia de cortes que
recurrir a reconstrucciones en bloque de volúmenes, aunque a primera vista sean más
espectaculares.
9.2. Electrobisturí.
Este equipo consta de dos partes, una estéril y una no estéril. Lo estéril, sería el cable
(partiendo desde el aparato) y el mango con la punta del electrobisturí. Lo que no es
estéril es la plancha que va por debajo del paciente a la hora de utilizar el electrobisturí.
Las puntas, de carga positiva, pueden ser de tipo:
Algunas suelen ser de teflón para que el tejido no quede adherido al quemarse. El
mango puede ser a pedal o puede tener botones para operar el electrobisturí. Se tiene
un botón para el corte y un botón para coagulación. La plancha es de carga negativa.
Puede ser de metal, plomo o autoadhesiva descartable. Se coloca cerca de donde se va
a hacer la incisión antes de que se acomode al paciente en la camilla, quedando por
debajo de él antes de preparar el campo operatorio. Hay que tomar precauciones con
respecto a pacientes con marcapasos, prótesis, uniones metálicas, entre otros. En
aplicaciones de odontología se encuentran dos tipos de instrumentos que se diferencian
en la frecuencia portadora de su generador:
243
Todos garantizan potencias eficaces entre 50W y 100W e incluyen entre sus
accesorios todo lo necesario para funcionar inmediatamente, a excepción de un juego
de pinzas bipolares que es opcional.
Tan sólo un accesorio delata claramente el tipo de equipo. El electrodo neutro, que en el
caso del radio bisturí toma el nombre de antena. La antena se encuentra forrada por un
material aislante que impide la conducción eléctrica a través de ella pero que sí permite
la recepción y emisión electromagnética. Se puede afirmar que el funcionamiento del
electrobisturí se basa en las tres siguientes afirmaciones:
Adoptando el modelo de Niels Bohr, la materia está compuesta por átomos con
partículas mínimas elementales, el electrón, el protón y el neutrón que son a las que se
deben todas sus propiedades. Estas partículas mínimas se agrupan siguiendo leyes,
para formar estructuras más complejas como los átomos (Figura 9.6). Los átomos se
agrupan entre sí formando moléculas, que a su vez pueden agruparse en compuestos
más complicados como, por ejemplo, la doble espiral del ADN (Figura 9.7) que identifica
el genoma humano Si se tuviese un átomo aislado se puede identificar dos partes bien
diferenciadas, el núcleo y la corteza. El núcleo está constituido por protones y neutrones
y la corteza por electrones. Al núcleo se debe la identidad de la materia (Oro, Plata,
Hidrógeno, entre otros) y su ordenamiento en la Tabla Periódica de los Elementos, y a la
corteza o bandas se deben sus propiedades químicas, eléctricas y magnéticas. La
corteza del átomo está formada por electrones que giran en ciertas órbitas alrededor del
núcleo. Estos pesan menos que la milésima parte de un protón, aunque ambos tienen la
misma carga y signos opuestos.
244
Figura 9.6. Estructura atómica.
Figura 9.7. Doble espiral del ADN que identifica el Genoma Humano.
Dado que la masa de un neutrón es, aproximadamente igual, a la del protón, no es difícil
con un sistema planetario en miniatura, con un enorme núcleo en su centro y unos
minúsculos satélites eléctricos orbitando a su alrededor (Figura 9.8). Estos electrones no
pueden ocupar, en el espacio del átomo, cualquier lugar; sino unos espacios
determinados por la propia naturaleza del mismo. A estos lugares se los llama estados
energéticos permitidos, son llamados orbitales y provocan que cada elemento de la
245
naturaleza tenga su propia huella dactilar: el espectro atómico. Todo ello permite intuir
que la energía de un electrón está cuantificada. De hecho, la energía que posee un
electrón se define con cuatro parámetros llamados números cuánticos.
Un átomo con orbitales vacíos presenta un desequilibrio eléctrico ya que tendrá cargas
positivas en el núcleo y vacíos en las órbitas o bandas. Esto le crea una cierta capacidad
para captar electrones errantes o ajenos. Potencialmente tenderá a subsanarlo
manteniendo siempre llenos, en orden creciente, los más próximos al núcleo. Estos son
los de menor energía. Cuando aplicamos un impulso extra al electrón, éste tiende a
ocupar órbitas más elevadas. Si esta energía es suficiente, puede incluso abandonar el
volumen de influencia del átomo y salir de él. A una cierta distancia del núcleo los
orbitales posibles de energía desaparecen y se habla de un continuo de energía. Las
perturbaciones sufridas por los electrones son las causantes de las radiaciones
electromagnéticas. Para explicar mejor este efecto, se debe recordar que los electrones
son portadores de energía y además de girar alrededor del núcleo, lo hacen también
alrededor de su propio eje, particularidad llamada espín y cuyas perturbaciones tienen
mucha relación con las propiedades magnéticas de la materia. Cuando un electrón pasa
de un nivel de energía a otro lo hace absorbiendo o emitiendo una radiación
electromagnética dada. Físicamente, para cambiar de nivel energético se acerca o aleja
del núcleo, ocupando un lugar en otra banda u orbital. Usando los postulados
introducidos por Einstein, a este paquete de energía radiada (quantum / cuanto de
acción) se le llama fotón. Esto quiere decir que si el electrón pasa de un nivel energético
superior a otro inferior, se liberará energía en forma de fotón. Es una radiación, como
una sucesión de fotones emitidos en todas las direcciones (Figura 9.9).
246
Figura 9.9. Emisión de fotón por disminución de nivel energético.
247
Figur
a 9.10. Espectro de radiación electromagnética.
Supóngase un cable de cobre. Si se lo pone en contacto por uno de sus extremos con
una sustancia con avidez de electrones (defecto de electrones), y por el otro extremo,
con una sustancia con exceso de electrones, se producirá entre los mismos una
diferencia de potencial eléctrico (que se mide en volt). El extremo deficitario capturará
electrones del metal, dejando sus átomos proximales desequilibrados. Estos, a su vez,
capturarán electrones de sus vecinos, y así sucesivamente. El fenómeno es similar al de
la difusión de la tinta en el agua, pero se produce a la velocidad de la luz. Estas capturas
se van extendiendo hasta que se alcanza el otro extremo del cable. Allí, la sustancia con
electrones en exceso cede algunos a los átomos desequilibrados que van apareciendo.
El fenómeno es equivalente a considerar un flujo de electrones circulando de una a otra
sustancia. A este flujo lo llamamos corriente eléctrica y se mide en ampere (A). Este
proceso se repetirá hasta que las sustancias de los extremos alcancen un equilibrio
relativo entre sí y la diferencia de potencial se anule. Las sustancias de que hablamos,
248
bien pudieran ser las que constituyen una batería o una pila eléctrica común. Como se
sabe, la corriente eléctrica puede ser continua o alterna. La primera implica que el flujo
de electrones va siempre en un mismo sentido, de un extremo al otro del conductor.
Mientras que la corriente alterna implica un cambio de sentido del flujo, debido a un
cambio de polaridad. La corriente continua puede ser, constante o variable. La constante
produce campos magnéticos estáticos y por ello se utiliza para activación de
electroimanes, electro válvulas, etc. La corriente continua constante no emite radiación
alguna, sólo crea campos magnéticos estáticos en su entorno. La corriente continua
variable y la alterna sí producen emisión de radiación. Vemos que estas conclusiones se
corresponden perfectamente con lo visto sobre radiación: Una variación en la
distribución electrónica radiará energía. Todas estas corrientes las podemos representar
gráficamente, incluso cuando tienen formas de lo más complicadas. No obstante, se
tienden a representar como ondas senoidales periódicas con el fin de facilitar la
comprensión. Se puede demostrar matemáticamente que cualquier tipo de onda, de
cualquier forma y amplitud se puede considerar como una suma de ondas senoidales
(Series de Fourier). En la Figura 9.11, se pueden observar representados dos de los
parámetros característicos de una onda: longitud de onda y amplitud. Se ha elegido, la
onda de vibración de una cuerda común, por ser un ejemplo muy intuitivo y didáctico, en
donde se puede, de forma sencilla, ver las características de las ondas. Las ondas
tienen propiedades similares, sea cual sea su naturaleza. Los cuantos de vibración
sonora son llamados fonones.
Volviendo a las corrientes eléctricas, estas se propagan por una sustancia en función de
su resistencia. Por ser esta una propiedad de las sustancias fundamentales para
entender los principios de actuación del electrobisturí, se explica más ampliamente
vamos sobre ella. La resistencia eléctrica es la propiedad de una sustancia que tiene
relación directa con la disponibilidad de electrones sueltos o con poca energía de unión
al núcleo (región del continuo), en los átomos considerados y se mide en OHM. Si están
249
muy equilibrados y en orbitales muy profundos (cercanos al núcleo), la resistencia a la
captura puede ser tan grande que podríamos hablar de auténtico aislante eléctrico. Esta
propiedad también tiene relación con la temperatura, o sea, con la vibración de los
átomos y con las dimensiones de la sustancia. Si la sección de paso del flujo de
electrones disminuye o la distancia a recorrer por los mismos aumenta, entonces la
resistencia crece.
Para hacer circular un flujo de electrones se debe emplear una cierta cantidad de
energía. Por el principio de la conservación de la energía, esta energía no puede
desaparecer, la energía eléctrica se convierte en calor. Esta conversión es,
cuantitativamente igual, al producto de la resistencia por el cuadrado de la intensidad
(Ley de Joule). Este concepto es muy importante para explicar la actuación del bisturí
250
eléctrico sobre los tejidos vivos. Las corrientes eléctricas y las diferencias de potencial
desempeñan un papel vital en los sistemas nerviosos. La conducción de los impulsos
nerviosos es fundamentalmente un proceso eléctrico, aunque el mecanismo de
conducción es mucho más complejo que en las sustancias sencillas como los metales. A
esta naturaleza de la transmisión del impulso se debe la gran sensibilidad del organismo
a las corrientes eléctricas exteriores.
Corrientes del orden de 0.1 amperios, muy pequeñas para generar calentamientos
importantes, interfieren con procesos nerviosos esenciales para funciones vitales tales
como el latido cardíaco. Corrientes más pequeñas, del orden de 0.01 amperios,
producen acciones convulsivas en los músculos y mucho dolor. Con 20 miliamperios, por
ejemplo, una persona no podría soltar un conductor y llegaría al shock. Entonces,
grandes corrientes, pero también algunas tan pequeñas como 0.001 amperio, pueden
producir fibrilación ventricular. Los efectos de la corriente sobre las personas, es casi
independiente de la frecuencia, hasta unos 1KHz, no importando si ésta es continua o
alterna. Por debajo de este valor aparecen fenómenos térmicos, farádicos y
electrolíticos, principalmente. Para frecuencias por encima de las 350kHz, las corrientes
no interfieren apreciablemente con los procesos nerviosos y sólo producen calor. Se
entiende así, cómo y por qué, las corrientes elegidas para electro cirugía, se desarrollan
en frecuencias, por encima de los 500kHz (0.5MHz). A estas frecuencias la conducción
eléctrica y la absorción orgánica de las ondas se hace más compleja. A medida que la
frecuencia aumenta, la energía tiende a ser radiada. Así aparecen dos mecanismos de
producción de calor: por efecto Joule, debido a la resistencia eléctrica, y por absorción
de radiación electromagnética, debido a las estructuras moleculares. Un efecto y otro
tomarán más relevancia a medida que aumente la frecuencia. En electrocirugía los dos
efectos son importantes y se emplean frecuencias hasta de 1MHz. Para frecuencias
entre 1MHz y 3MHz predomina el efecto electromagnético. En los llamados
Radiobisturís, de 3.5MHz a 4MHz, sólo la componente radiada adquiere importancia.
Visto todo lo anterior no es difícil deducir que, si circula una corriente de gran frecuencia
entre dos electrodos de unos 100 centímetros cuadrados y colocados en buen contacto
con la piel, y se le da la amplitud suficiente, se producirá una cierta cantidad de calor en
la parte del organismo situada entre los mismos, debido a los efectos explicados. La
potencia eléctrica entregada, resultando ser de 70 vatios (potencia que normalmente
emite un ser humano en promedio en todo su cuerpo). Esto implica que una de las
placas transferirá 70 vatios en total o 0,7 vatios por cada centímetro cuadrado (Figura
9.13). Esta densidad de energía, no es suficiente para comprometer los tejidos vivos,
pero si disminuimos la superficie de contacto a 1 mm cuadrado, por ejemplo, la densidad
de energía subirá a 70/0.1 = 800 vatios por centímetro cuadrado, lo que implica una
cantidad importante. Esta energía es suficiente como para evaporar o volatilizar 1
gramo de agua de los tejidos en contacto por cada dos segundos de emisión de energía.
Esto da idea de lo que ocurre: En el corte electroquirúrgico se evapora el agua de los
tejidos y sustancias en contacto, con tanta violencia que, literalmente, las células
explotan.
251
Figura 9.13. Densidad de potencia del corte electroquirúrgico.
252
fulguración. La electrodesecación se pude obtener usando electrodos apropiados, y en
los modos de coagulación eligiendo una potencia adecuada.
Los aparatos que incluyen salida micro bipolar pueden realizar desecaciones sin
chispas, lo que es ideal para ciertas aplicaciones (Figura 9.14).
CAPÍTULO 10
254
FUNDAMENTOS DE LA IMAGEN DIGITAL
Introducción
a. Córnea.
b. Esclerótica.
c. Coroides.
Contiene una red de vasos sanguíneos que son la principal fuente de nutrición del
ojo. La coroides está fuertemente pigmentada para reducir la cantidad de luz exterior
que entra al ojo y la reflexión interna dentro de él. En su parte frontal, se divide en el
cuerpo ciliar y el iris.
d. Cuerpo ciliar.
255
Se expande o contrae para controlar la cantidad de luz que entra en el ojo. La
apertura central del iris, llamada pupila, varía su diámetro de 2 a 8mm. El frente del
iris contiene el pigmento visible del ojo, y la parte trasera contiene un pigmento negro.
d. Cristalino.
Está suspendido por fibras que lo atan al cuerpo ciliar. Tiene una pigmentación
amarillosa que puede aumentar con la edad. El cristalino absorbe aproximadamente
8% del espectro visible, especialmente en longitudes de onda cortas. La luz
ultravioleta e infrarroja son absorbidas apreciablemente. El cristalino es la lente del ojo
y sirve para enfocar, ayudado por los músculos ciliares.
f. Retina.
Es la membrana interior posterior del ojo. Cuando el ojo está enfocado, la imagen de
un objeto exterior es proyectada en la retina. Sobre su superficie se encuentran los
receptores que permiten la percepción visual: los conos y los bastones.
Los músculos mueven al ojo hasta que la región de interés se localiza en la fóvea. Los
humanos somos capaces de percibir detalles muy finos gracias a que cada uno de los
conos está conectado a una terminal nerviosa.
Los bastones son muchos más, entre 75 y 150 millones están distribuidos sobre la
superficie retinal. Esta área de distribución tan grande y el hecho de que varios están
conectados a una misma terminal nerviosa reduce su cantidad de detalle discernible.
Sirven para dar una imagen general del campo de visión. No participan en la visión
del color y son sensitivos a bajos niveles de iluminación (o visión escotópica, de luz
tenue).
Existe una región del ojo en la que no hay receptores, ya que es la región donde surge el
nervio óptico. Esta región se denomina punto ciego. Fuera de este punto, la distribución
de receptores es radial con respecto a la fóvea, como se representa en la figura 2.2
256
Figura 10.2. Distribución de conos y bastones en la retina.
Recordar que los humanos integramos la inteligencia y la experiencia con la vista, por lo
que esta comparación sólo es válida para mostrar el hecho de que la habilidad básica de
resolución de detalle del ojo está ya desde hace algún tiempo casi en el mismo rango de
los sensores electrónicos de imágenes.
La principal diferencia entre una lente óptica ordinaria y el cristalino es que este último
es flexible, y su forma es controlada por la tensión de las fibras del cuerpo ciliar. Para
enfocar objetos lejanos, se aplana, para enfocar objetos cercanos, se ensancha. La
distancia entre el centro del cristalino y la retina (distancia focal), varía de
aproximadamente 17mm a 14mm.
Con esta información podemos calcular el tamaño del objeto reflejado en la retina.
Consideremos la Figura 10.3.
El observador mira una palmera de 15m de altura desde una distancia de 100m (al punto
focal C). Si h es la altura en mm del objeto en la imagen retinal, por geometría
obtenemos que:
257
15/100 = h/17
La percepción tiene lugar cuando los diferentes receptores son excitados, estos
transforman la energía radiante a impulsos eléctricos que son enviados al cerebro para
su decodificación.
Las imágenes digitales son un conjunto discreto de intensidades. Por lo tanto, tiene
sentido hablar de la capacidad de discriminación del ojo entre diferentes niveles de
intensidad.
El rango de intensidades de luz al que el ojo humano puede adaptarse es enorme (del
rango de 1010) desde el umbral escotópico hasta el límite de deslumbramiento.
En la Figura 10.4 se ilustra esta característica. La línea larga sólida representa el rango
de intensidades al que se puede adaptar el sistema visual. El rango en la visión fotópica
es de cerca de 106. La transición entre visión fotópica y escotópica es gradual entre los
0.001 y 0.1 millilambert (-3 a –1 mL en la escala logarítmica).
258
Figura 10.4. Rango de sensaciones de iluminación subjetiva respecto a intensidad.
Esto puede parecer impresionante, sin embargo, la verdad es que el sistema visual no
puede operar en todo este rango simultáneamente. En realidad, logra esta gran
variación con pequeños cambios de sensibilidad. A esto se le llama Adaptación a la
iluminación.
Adaptación a la iluminación.
La habilidad del ojo de discriminar entre cambios de intensidad de luz en cualquier nivel
específico de adaptación también ha sido estudiada.
Un experimento clásico consiste en poner a un observador a mirar una gran área
iluminada uniformemente que ocupa su campo visual entero. Esta área es iluminada por
la parte de atrás por una fuente cuya intensidad I, puede variar.
259
Se incrementa la iluminación, ΔI, con destellos de corta duración con forma de círculo en
el centro del campo iluminado.
La Figura 10.5 muestra una gráfica de log ΔIc / I como función de log I. La curva muestra
que la discriminación de iluminación es mala (el cociente de Weber es grande) con bajos
niveles de iluminación, pero crece significativamente cuando se aumenta la iluminación
de fondo.
Las dos ramas de la curva reflejan el hecho de que los niveles bajos de iluminación son
manejados por bastones, y los altos – con mejor discriminación – por los conos.
260
Si la iluminación de fondo permanece constante y la intensidad de la otra fuente de luz
varía incrementalmente en lugar de por destellos, el observador típico podrá discernir un
total de entre una y dos docenas de cambios de intensidad.
Esto no significa que una imagen pueda ser representada por un número tan pequeño
de valores de intensidad porque, mientras el ojo recorre la imagen, el fondo promedio
cambia, permitiendo la detección de un conjunto diferente de cambios incrementales con
cada nivel de adaptación.
En 1666, Isaac Newton descubrió que, al pasar un rayo de luz por un prisma de vidrio, el
rayo de salida no es blanco, sino que está compuesto de un espectro de colores
continuo, que va desde el violeta hasta el rojo.
El rango de colores que percibimos no es sino una muy pequeña parte del espectro
electromagnético (EEM). En un extremo del espectro se encuentran las ondas de radio
con longitudes de onda mil millones de veces más largas que los de la luz visible. En el
otro están los rayos gama con longitudes de onda millones de veces más pequeños que
los de la luz visible.
261
λ=c/ν
E = hv
Luz visible.
La luz es un tipo particular de radiación electromagnética que puede ser detectada por el
ojo humano. La banda visible del EEM se extiende en un rango de aproximadamente
0.43 μm (violeta), a 0.79 μm (rojo).
Los colores que percibimos en un objeto son determinados por la naturaleza de la luz
reflejada por dicho objeto.
Un cuerpo reflejante que está balanceado en todas las longitudes de onda visibles
aparece blanco para el observador. Un cuerpo que refleja un rango en particular del
espectro visible se ve de cierto color (p. Ej. Los objetos que se ven de color verde
absorben la energía en todas las longitudes de onda excepto en la de los tonos de
verde, de 500 a 570 nm, ésta la reflejan).
Luz monocromática.
262
La luz que no tiene color se llama acromática o monocromática. Su único atributo es su
intensidad o cantidad. En general usamos el término nivel de gris para definir la
intensidad monocromática porque ésta va desde el negro hasta el blanco pasando por
una gama de grises.
Luz cromática.
1. Radiancia.
Cantidad total de energía que fluye de una fuente de luz. Se mide en watts.
2. Luminancia.
3. Brillo.
Sin embargo, se requiere que la longitud de onda de una onda EM sea del mismo
tamaño o más pequeña que el objeto a detectar (por ejemplo, una molécula de agua
tiene un diámetro del orden de 10-10m. Entonces se requiere una fuente capaz de emitir
luz en el extremo lejano del ultravioleta o los rayos X suaves).
Los tipos de imágenes que nos interesan se generan por una combinación de una fuente
de iluminación y la reflexión o absorción de energía de esta fuente por parte de los
elementos de la escena.
Recordar que esta iluminación puede ser también radar, infrarrojo, o alguna fuente que
no es parte del EEM., como ultrasonido.
263
En algunas aplicaciones, la energía transmitida o reflejada se enfoca a un
fotoconvertidor (Una pantalla de fósforo) que convierte la energía a luz visible.
264
10.3.1. Adquisición con un solo sensor.
El sensor más familiar de este tipo es el fotodiodo, de silicón, cuyo voltaje de salida es
proporcional al de la luz. A veces se utiliza un filtro frente al sensor para mejorar la
selección de ciertas longitudes de onda (Un filtro verde favorece la banda verde del
espectro).
Para generar una imagen 2D, se requieren desplazamientos relativos en las direcciones
X y Y del área a capturar. En la figura vemos un sensor montado en un tornillo que le da
movimiento en dirección perpendicular. Este método es una manera barata pero lenta de
obtener imágenes de alta resolución.
Arreglos similares usan una cama plana (flat bed), con el sensor moviéndose en 2
direcciones lineales. A este tipo de sensores se les llama microdensitómetros.
Figura 10.9. Se combina un sensor único con movimiento para generar una imagen 2D.
Otro tipo de sensor único utiliza una fuente de láser coincidente con el sensor, con
espejos utilizados para controlar el láser de salida en un patrón de escaneo, y para dirigir
la señal reflejada al sensor.
265
Se utilizan rutinariamente en aplicaciones de imágenes aéreas, en las que el movimiento
perpendicular es dado por el movimiento del avión. Se utilizan lentes u otro tipo de
esquemas de enfoque para proyectar el área a escanear en los sensores.
También existe la configuración de anillo, en la que la fuente rota y los sensores están
en el lado opuesto, colectando la energía que pasa a través del objeto. Esta es la base
de la tomografía Axial Computarizada (CAT), la resonancia magnética (MRI), y la
tomografía por emisión de positrones (MRI).
Nótese que la salida de los sensores debe ser procesada por algoritmos de
reconstrucción cuyo objetivo es transformar los datos en imágenes de cortes que tengan
sentido.
266
Un punto histórico en la tecnología de sensores de imágenes fue la invención de
arreglos de semiconductores fotodetectores. El más común es el CCD (Charge-coupled
Device), que consiste en un gran número de elementos fotosensibles ordenados en
forma de arreglo. Estos funcionan en 2 fases.
Tamaño de pixel
Dispositivo Pixeles (HxV) (H x Vμm)
KAF-0261E 512 x 512 20.0 x 20.0
KAF-0402E(/ME) 768 x 512 9.0 x 9.0
KAF-1001E 1024 x 1024 24.0 x 24.0
KAF-1301E(/LE) 1280 x 1024 16.0 x 16.0
KAF-1402E(ME) 1320 x 1037 6.8 x 6.8
KAF-1602E(/LE) 1536 x 1024 9.0 x 9.0
KAF-1603ME 1536 x 1024 9.0 x 9.0
KAF-3200E(ME) 2184 x 1472 6.8 x 6.8
KAF-4301E 2084 x 2084 24.0 x 24.0
KAF-4320E 2092 x 2092 24.0 x 24.0
KAF-6303E(/02LE) 3088 x 2056 9.0 x 9.0
KAF-16801E(/LE) 4096 x 4096 9.0 x 9.0
Tabla 10..1 Algunos sensores CCD comerciales de Kodak (“full frame”, 2004).
Recientemente los sensores CMOS han atraído la atención por la calidad de su imagen
y la uniformidad de la sensibilidad de sus elementos, que se acercan a la calidad del
CCD. Sus ventajas sobre el CCD son que consumen menos energía, sus subáreas se
accesan rápidamente, y se pueden añadir a circuitos (cámaras de un solo chip).
267
Figura 10.13. Sensores CMOS.
Tamaño de pixel
Dispositivo Pixeless (HxV) (H x Vμm)
KAC-9618 648 x 488 7.5 x 7.5
KAC-9619 648 x 488 7.5 x 7.5
KAC-9628 648 x 488 7.5 x 7.5
KAC-9630 128 x 98 20 x 20
KAC-9637 648 x 488 6x6
KAC-9638 1,288 x 1,032 6x6
KAC-9647 648 x 488 6x6
KAC-9648 1,288 x 1,032 6x6
La ventaja de los arreglos es que una imagen completa puede obtenerse con sólo
enfocar el patrón de energía en la superficie del arreglo (no requiere movimiento).
268
Figura 10.14. Ejemplo del proceso de adquisición de una imagen digital.
Circuitería analógica y digital convierte estas salidas a señal de video, que se digitaliza
para dar como resultado una imagen digital.
Una imagen puede ser representada por una función bidimensional de la forma f(x, y),
en donde el valor o amplitud de f en las coordenadas espaciales (x,y) da la intensidad de
la imagen en ese punto.
269
La función f(x,y) se caracteriza por dos componentes:
f(x,y) = i(x,y)r(x,y)
donde
Esta desigualdad indica que la reflectancia está acotada entre 0 (absorción total) y 1
(reflexión total).
Esto se aplica también al caso en que las imágenes se forman por la transmisión de la
iluminación por el medio, como en los rayos X. En ese caso la segunda componente
sería de capacidad de transmisión y no reflectancia.
l = f(x0, y0)
Al intervalo [Lmin, Lmáx] se le denomina escala de grises. Una práctica habitual consiste
en desplazar este intervalo hasta el intervalo [0, L], donde l = 0 se considera negro y l =
L - 1 se considera blanco (todos los valores intermedios son tonos de gris).
270
Ya se ha visto que hay muchas maneras de adquirir imágenes, pero el objetivo siempre
es el mismo: generar imágenes digitales desde datos detectados con sensores.
Para crear una imagen digital, se requiere convertir los datos detectados a forma digital,
esto involucra los procesos de muestreo y cuantificación.
Una imagen puede ser continua tanto respecto a sus coordenadas X y Y, como a su
amplitud. Para convertirla a forma digital, hay que digitalizarla en los dos aspectos
(espacialmente y en amplitud).
Para muestrear esta función, tomamos muestras a espacios iguales a lo largo de AB,
indicadas por los cuadritos blancos. El conjunto de estos cuadritos nos da la función
muestreada.
Sin embargo, los valores de las muestras aún se encuentran en un rango continuo de
valores de niveles de gris. Para obtener una función digital, debemos convertir
(cuantificar) los valores de gris a cantidades discretas. Esto se hace simplemente
asignando uno de los ocho valores de la figura a cada muestra.
La última figura muestra las muestras digitales que resultan del muestreo y
cuantificación.
271
Figura 10.15. Muestreo y cuantificación: a) Imagen original b) Amplitud a lo largo de AB
c) Muestreo d) Cuantificación.
Una imagen continua f(x,y) se describe de forma aproximada por una serie de muestras
igualmente espaciadas organizadas en forma de una matriz N x M como se indica en la
siguiente matriz, donde cada elemento de la misma es una cantidad discreta:
L=2 k
b=NxMxk
cuando M = N:
273
b=N 2 k
Usualmente decimos que una imagen digital de tamaño M x N con L niveles de gris tiene
una resolución espacial de M x N pixeles y una resolución de nivel de gris de L niveles.
En el primer ejemplo vemos una imagen con resolución espacial de 1024 x 1024 y 8 bits
para representar los niveles de gris. Las imágenes siguientes han sido submuestreadas
a partir de esta primera imagen, y se han agrandado para comparar los resultados.
Nótese que, a partir de la tercera imagen, de 256 x 256, aparece un fino patrón de
tablero de ajedrez, también llamado pixelado en los bordes de la flor. Este patrón se va
haciendo más notorio hasta llegar a la última imagen, de 32 x 32.
274
Figura 10.16. Imagen de 1024x1024 original y sus submuestreos (ampliados al tamaño
de la primera) de 512x512, 256x256, 128x128, 64x64 y 32x32
En el segundo ejemplo (Figura 10.17), se tiene una imagen TAC con el mismo número
de muestras (resolución espacial constante), pero reducimos el número de niveles de
gris desde 256 a 2, en potencias enteras de 2. Notar que, a partir de la cuarta imagen,
con 32 niveles, un casi imperceptible conjunto de manchas delimitadas en áreas suaves
de niveles de gris. Este efecto es llamado falso contorno.
275
Figura 10.17. Imagen 472 x 374 en 256, 128, 64, 32, 16, 8, 4 y 2 niveles de gris.
Un mínimo tamaño aproximado en el que una imagen estará libre de falsos contornos y
pixelados será 256 x 256 con 64 niveles de gris.
Las funciones cuya área bajo la curva es finita, pueden ser representadas en términos
de senos y cosenos de varias frecuencias (Fourier). El componente seno/coseno de más
alta frecuencia determina el contenido en frecuencia más alto de la función.
Suponga que la más alta frecuencia es finita y que la función no tiene una duración
limitada (lo que se llama una función limitada en banda). El teorema de muestreo de
Shannon nos dice que, si la función se muestrea a un ritmo igual o mayor que el doble
de su más alta frecuencia, es posible recobrar completamente la función original a partir
de sus muestras. Es imposible satisfacer el teorema de muestreo en la práctica. Sólo se
puede trabajar con datos muestreados de duración finita. Sin embargo, hay un caso
especial, cuando la función es periódica, esta puede ser muestreada a un ritmo mayor o
igual al doble de su frecuencia más rápida, y es posible recobrar la función a partir de
sus muestras si el muestreo captura exactamente un número entero de periodos de la
función.
276
Si la función se submuestrea, el fenómeno conocido como aliasing corrompe la imagen
muestreada (esta corrupción tiene la forma de componentes adicionales de frecuencia
que se introducen en la función muestreada, llamadas frecuencias de aliasing).
El efecto de las frecuencias de aliasing puede ser apreciado bajo ciertas condiciones en
la forma de los llamados patrones de Moiré.
Ampliar una imagen puede ser visto como sobremuestreo, y encogerla como
submuestreo. Sin embargo, la diferencia entre estas dos operaciones y el muestreo y
cuantificación de una imagen continua es que el cambio de tamaño se aplica a una
imagen digital.
277
Suponiendo que se tiene una imagen de 500x500 que se desea agrandar 1.5 veces a
750x750 pixeles. Una de las maneras más fáciles de visualizar el proceso es sobreponer
una malla imaginaria de 750x750 a la imagen original. Para asignar niveles de gris a
cada punto en la malla sobrepuesta, se busca el pixel más cercano en la imagen original
y se le asigna su nivel de gris al pixel de la malla. Este método de asignación de nivel de
gris se llama interpolación por vecino más cercano.
Un pixel p en las coordenadas (x,y) tiene cuatro vecinos horizontales y verticales dados
por:
Este conjunto de pixeles, llamados los 4 vecinos de p, se denota como N4(p). Cada pixel
es una unidad de distancia desde (x,y), y algunos de los vecinos de p están fuera de la
imagen digital si (x,y) está en el borde de la imagen.
y se denotan como ND(p). Estos puntos, junto con los 4 vecinos, son llamados los 8
vecinos de p, y se escriben N8(p). Algunos de ellos estarán fuera de la imagen si (x,y)
está en el borde de la imagen.
278
Para establecer si 2 pixeles están conectados, se debe determinar si son vecinos y si
sus niveles de gris satisfacen un criterio predeterminado de similaridad (si sus niveles de
gris son iguales).
En una imagen binaria (con valores 0 y 1) 2 pixeles pueden ser 4 vecinos, pero sólo se
dice que están conectados si tienen el mismo valor.
Conectividad.
donde (x0, y0) = (x, y) y (xn, yn) = (s, t) y los pixeles (xi, yi) y (xi-1, yi-1) son adyacentes
para todo 1<= i <= n. En este caso, n es la longitud del camino. Si (x0, y0) = (xn, yn), el
camino es un camino cerrado.
279
Sea S un subconjunto de pixeles en una imagen. Se dice que 2 pixeles p y q están
conectados en S si existe un camino entre ellos que consiste enteramente de pixeles en
S. Para cada pixel p en S, el conjunto de pixeles que está conectado a él en S se
denomina componente conexa de S. Si sólo tiene un componente conexo, entonces el
conjunto S se denomina conjunto conectado.
Medidas de distancia.
Para los pixeles p, q y z con coordenadas (x,y), (s,t) y (v, w), respectivamente, D es una
función de distancia o métrica si:
1
2 22
D e ( p . q ) =x−s + y−t
Lo que significa que los pixels que tienen una distancia menor o igual al valor de r desde
(x,y) son los que contiene un disco de radio r con centro en (x,y).
D4 (p, q) = |x - s| + |y - t|
En este caso, los pixeles que tienen una distancia D4 desde (x,y) de menor o igual ,valor
a r forman un diamante centrado en (x, y). Por ejemplo, los pixeles con distancia D4 <= 2
desde (x, y) (el punto central) forman los contornos con distancia constante siguientes:
2
212
21012
212
2
Los pixeles con D4 = 1 son los 4-vecinos de (x,y).
En este caso, los pixeles con distancia D8 menor o igual al valor r forman un cuadrado
centrado en (x, y). Por ejemplo, los pixeles con distancia D8 <= 2 desde (x,y), el punto
central, forman los contornos con distancia constante siguiente:
22222
21112
21012
21112
22222
p3 p4
p1 p2
p
REFERENCIAS BIBLIOGRÁFICAS
Aidley, DJ. The physiology of excitable cells. London: Cambridge University Press, 1983.
Conway, EJ. Nature and significance of concentration relations of potassium and sodium
ions in skeletal muscle. Physio,l Rev. 1957.
281
Beebe D. Signal Conversion. Biomedical Digital Signal Processing. Editorial Prentice
Hall. University of Wisconsin. Madison, Wisconsin E.U.A. 1993.
D. Jennings, A. Flint, B.C.H. Firton and L.D.M. Nokes. Introduction to Medical Electronics
Applications. School of Engineering University of Wales, College of Cardiff. London,
1995.
Goldman, DE. Potential, impedance and rectification in membranes. J Gen Physiol 1943.
Hodgkin, AL, Horowitz, Y. The influence of potassium and chloride ions on the
membrane potential of single muscle Fibres. J Physiol Lond. 1959.
Hodgkin, AL, Katz, B. The effects of sodium ions on the electrical activity of the giant
axon of squid. J Physiol Lond. 1949.
Hodgkin, AL, Keynes, RD. Active transport of captions in giant axons from sepia and
loligo. J Physiol Lond 1955.
Hodgkin, AL, Rushton, WAH. The electrical constants of crustacean nerve fibre. Proc
Roy Soc 1946.
Myer, Kutz. Standard Hand book of Biomedical Engineering and Design. McGraw-Hill,
New York, Chicago, San Francisco, Lisbon, London, Madrid, Mexico City, Milan, New
Delhi, San Juan, Seoul,Singapore, Sydney, Toronto. 2003.
282
Moore, J, Zouridakis, G., Biomedical Technology and Devices Hand Book. Boca Raton
London New York Washington, D.C. 1999.
Semmlow, John l., Robert Wood Johnson Medical School, New Brunswick, New Jersey,
U.S.A., Rutgers University Piscataway, New Jersey, U.S.A. Biosignal and Biomedical
Image Processing MATLAB-Based Applications. New York, 2004.
.
Thomas, RC. Membrane current and intracelular sodium changes in a snail neuron
during extrusion of injected sodium. J Physiol Lond 1969.
283