Documentos de Académico
Documentos de Profesional
Documentos de Cultura
FACULTAD DE MEDICINA
ALUMNO:
BERNARDINO BERNARDINO GUSTAVO No DE CUENTA: 1820516
PERIODO 2020B
1
contenido
Introducción 3
1. Rayos x 4
1.1. Antecedentes históricos 5
1.2. Principios de operación 6
1.3. Panorama actual 7
1.4. Avances tecnológicos 9
2. Ultrasonido 11
2.1. Antecedentes históricos 12
2.2. Principios de operación 13
2.3. Panorama actual 14
2.4. Avances tecnológicos 15
3. Tomografía 17
3.1. Antecedentes históricos 18
3.2. Principios de operación 19
3.3. Panorama actual 20
3.4. Avances tecnológicos 21
4. Resonancia 22
4.1. Antecedentes históricos 23
4.2. Principios de operación 24
4.3. Panorama actual 25
4.4. Avances tecnológicos 26
5. Métodos invasivos para medir los signos vitales 28
5.1. Antecedentes históricos 29
5.2. Principios de operación 30
5.3. Panorama actual 32
5.4. Avances tecnológicos 35
Referencias 38
2
Introducción
Hasta hace unos trescientos años, la ciencia médica siguió siendo casi la misma de
los antiguos. El hombre conocía muy pocas cosas sobre su cuerpo e ignoraba las
verdaderas causas de muchas de sus enfermedades.
Conocer los antecedentes, su estado actual, así como las prospectivas de los
dispositivos médicos es de vital importancia pues nos muestran un panorama claro
de como hemos avanzado en su desarrollo de este modo podemos seguir
planteándonos caminos posibles para el desarrollo continuo de las técnicas de
diagnóstico como los rayos x, ultrasonido, tomografía, resonancia y métodos
invasivos para la medición de signos vitales por mencionar algunos.
3
Rayos x
4
1.1 Antecedentes históricos
La radiología como tal, nace el 8 de noviembre de 1895, con el descubrimiento de los Rayos X por
Wilhelm Conrad Roentgen.
A partir de otoño de 1895, Wilhem Conrad Roentgen se interesó profundamente por los experimentos
con el tubo de rayos catódicos de Hittorf y Crookes, repitiendo ciertos experimentos de Lenard sobre
la fluorescencia del platinocianuro de bario fuera del tubo de vacío.
En noviembre de 1895, descubrió que una pieza de cartón cubierta con cristal de platinocianuro de
bario, se volvía fluorescente cuando un haz de rayos catódicos pasaba a través de un tubo de Hittorf,
fue así como realizó la primera radiografía de la historia: la mano de su esposa Bertha Röntgen.
Paulatinamente pudo demostrar que esta fluorescencia ocurría a pesar de colocar diferentes objetos
entre el tubo y la superficie fosforescente, mientras que el plomo no permitía el paso de estos nuevos
¨rayos¨. Posteriormente realizó impresiones sobre placas fotográficas y el 28 de diciembre de 1895,
en la sociedad Física-Medica de Würzburg, presentó su comunicación: ¨Una Nueva Clase de Rayos¨.
Durante los 120 años de vida de la radiología, esto ha venido a ser una herramienta en general para el
diagnóstico de enfermedades de manera oportuna y creciendo al par de la tecnología, para dar paso
a otras innovaciones dentro de la misma área de diagnóstico.
5
1.2 Principios de operación
Los fotones emitidos por el tubo de rayos X entran al cuerpo del paciente. Estos fotones dependiendo
de su energía pueden pasar sin interactuar con los tejidos, pueden absorberse o pueden dispersarse
por el cuerpo del paciente. Los fotones primarios registrados por el sistema receptor forman la
imagen, mientras que los fotones dispersos, pero no absorbidos contribuyen a la formación de una
imagen de fondo que degrada la imagen de interés. En buena medida, los fotones dispersos pueden
eliminarse por medio de dispositivos, tales como rejillas o espacios de aire que absorben la radiación
dispersa.
El tubo de rayos X es el elemento fundamental en toda instalación radiológica. Este elemento está
constituido por un cátodo (-) con un filamento caliente y un ánodo (+) hecho de metal refractario y
pesado que mantienen una diferencia de potencial. El cátodo y el ánodo se mantienen en un sistema
al vacío dentro de un tubo de vidrio.
Los electrones son arrancados del filamento por el potencial positivo del ánodo y chocan con éste
con una fuerza proporcional al potencial positivo. Existe una pieza metálica que sirve para dirigir al
flujo de electrones sobre la superficie específica en el ánodo.
Sistema de rayos X. B y E son fotones que han atravesado al paciente sin interaccionar; C y D son fotones dispersos. D ha sido
absorbido por la rejilla antidifusora; A ha sido absorbido por el paciente.
El choque de los electrones produce la aparición de la radiación X primaria que se dirige del cátodo
hacia todas las direcciones. Sólo se empleará la parte de la radiación que se dirige hacia la ventana
óptica del tubo. El resto de la radiación no sólo es inútil, sino que disminuye la calidad de la imagen,
de tal manera que el tubo se encuentra dentro de una envoltura opaca a los rayos X y tiene una
ventana de salida para la radiación primaria útil.
La tensión eléctrica se traduce en una radiación más o menos penetrante. Esta radiación podrá
alcanzar capas profundas y revelar estructuras de las partes más opacas del cuerpo. La cantidad de
radiación es proporcional al producto del tiempo de irradiación por el número de electrones que
bombardean al ánodo. El mismo resultado se puede obtener con una radiación de alta energía en
un tiempo corto o por un tiempo largo con menos energía.
6
1.3 Panorama actual
Actualmente existe una gran variedad de modalidades para obtener una imagen médica, todos estos
sistemas o tecnologías se basan en la generación de rayos X, es por eso que a continuación se
mencionan brevemente.
Modalidad Tipos Descripción
Está compuesta por un tubo intensificador de imagen y un
circuito cerrado de televisión con uno ó dos monitores para la
visualización de la imagen. El intensificador de imagen cuenta
con un tubo al vacío, que contiene un elemento fosforescente
Fluoroscopía de entrada y un fotocátodo, lentes electroestáticos, ánodos de
aceleración y un elemento fosforescente de salida.
7
Sistema que utiliza energía diagnóstica doble de rayos X
conocida como absorciometría o densitometría (DEXA),
diseñado para medir la densidad de los huesos y obtener otros
Densitómetro cálculos obtenidos de acuerdo a la información de dos picos
óseo de energía de fotones. Este tipo de densitómetro utiliza un
tubo de rayos X como fuente generadora de fotones, misma
que es alineada de forma mecánica y se mueve hacia un
detector de fotones típicamente en un patrón rectilíneo. El rayo
colimador es dirigido a través de la región anatómica de
interés y la
diferencia de absorción es detectada. Esta información es
utilizada en los cálculos para estimar la densidad mineral
ósea, la grasa subcutánea, riesgo de fracturas, etc.
8
Unidad de tratamiento de radioterapia externa. Convierte la
electricidad en radiaciones ionizantes de alta energía. Estas
radiaciones pueden ser rayos X o electrones. El acelerador
lineal también conocido como LINAC (linear accelerator) es un
Acelerador lineal tipo de equipo que le proporciona a la partícula subatómica
cargada pequeños incrementos de energía cuando pasa a
través de una secuencia de campos eléctricos alternos.
9
DRX- Revolution Nano
FDR-flex
El FDR-flex, de Fujifilm, es un sistema DR liviano, totalmente inalámbrico, que puede ser utilizado
en sitios remotos y se compone de caja de comunicaciones, computador portátil y panel original FDR
D-EVO o panel inalámbrico de la serie P. Al conectarlo a una fuente de rayos X, detecta
automáticamente la exposición y muestra imágenes previas en 1 a 2 segundos.
El detector produce imágenes nítidas con alta eficiencia de dosis, gracias a la tecnología de muestreo
de irradiación lateral, que mediante transistores de película delgada ubicados en la parte superior de
la capa de centelleo, captura las señales donde son más claras y fuertes, reduciendo la dispersión
de la luz y el desenfoque y aumentando la nitidez y la detección cuántica; y a la tecnología Dynamic
Visualization, que reconoce la región de interés y aplica parámetros de procesamiento automático
en todo el campo de exposición, generando imágenes con altos niveles de contraste y detalle. El
FDR-flex incluye además funciones de procesamiento multifrecuencia, control flexible del ruido y
eliminación del patrón de rejilla.
La caja de comunicaciones cabe en el compartimiento para casetes de la mayoría de las unidades
de rayos X analógicas móviles y está disponible un sistema de montaje de bandeja reemplazable.
10
ULTRASONIDO
11
2.1 Antecedentes históricos
En 1793 el italiano Lassaro Spallanzani, profesor de Padua, descubrió que los murciélagos podían
realizar sus vuelos con gran seguridad aún en la más completa oscuridad, o sea, que poseían algún
sentido que a los científicos de la época les era desconocido. Jurin observó que si se cubría la cabeza
de los murciélagos con capuchas no podían obviar obstáculos en su vuelo, aunque las capuchas
fueran transparentes; pensó entonces que el oído estaba implicado: tapándoselos con cera el
murciélago era incapaz de saltar los obstáculos en la oscuridad. A su muerte Spallanzani estaba
plenamente convencido de que el murciélago en la noche se orientaba gracias al oído y que al volar
debía producir algún sonido que se reflejaba sobre los objetos, por lo que era nuevamente percibido
por él; es decir, que se trataba de una especie de eco. La teoría de Spallanzani tenía un
inconveniente porque en la época solo eran conocidas las ondas sonoras (audibles) y el vuelo del
murciélago era silencioso. Por esto, su teoría fue muy criticada y enterrada durante muchos años.
El fin de la última centuria fue una época fructífera científicamente. Durante ese tiempo se
descubrieron las ondas de radio, la radioactividad, los rayos X y la existencia de la energía acústica
fuera de los límites percibidos para el oído humano (infrasonidos y ultrasonidos). Los hermanos
Pierre y Jacques Curie, en 1880, descubrieron el fenómeno de la piezoelectricidad y publicaron los
resultados obtenidos al experimentar la aplicación de un campo eléctrico alternante sobre cristales
de cuarzo y turmalina, los que produjeron ondas sonoras de muy altas frecuencias. En 1883 apareció
el llamado silbato de Galton, usado para controlar perros por medio de sonido inaudible a los
humanos.
En 1912, poco después del hundimiento del Titanic, el inglés L. F. Richardson sugirió la utilización
de ecos ultrasónicos para detectar objetos sumergidos. Durante la Primera Guerra Mundial, se
trabajó intensamente en esta idea, intentando detectar submarinos enemigos.
12
Los ultrasonidos como medios de diagnóstico en Medicina fueron introducidos, por primera vez, en
1942 por Dussik para explorar anomalías cerebrales. El psiquiatra intentó detectar tumores
cerebrales al registrar el paso del haz sónico a través del cráneo y trató de identificar los ventrículos
al medir la atenuación del ultrasonido, lo que denominó hiperfonografía del cerebro.
Ultrasonido se refiere a ondas de sonido emitidas a frecuencias mayores del rango auditivo humano.
Para realizar diagnósticos por imaginología, las frecuencias más usadas son las que varían dentro
del rango de 2 a 15 MHz. Para el escaneo vascular las frecuencias utilizadas van de los 5 a los 15
MHz y para el caso de escaneo intravascular las frecuencias van de los 15 a los 30 MHz.
Las ondas de ultrasonido son vibraciones mecánicas (acústicas) que requieren de un medio de
transmisión; debido a que presentan las propiedades normales de una onda, que son de reflexión,
refracción, y difracción, esto es, que se pueden dirigir, enfocar y reflejar.
Un sistema típico de escaneo por ultrasonido consta de las siguientes partes:
La imagen de ultrasonido se logra colocando un transductor sobre la piel del paciente o se inserta
dentro de alguna cavidad. Estos sensores contienen uno o más elementos de material
piezoeléctrico. Cuando la energía de ultrasonido emitida por el sensor es reflejada por el tejido, el
transductor recibe algunos de estos reflejos (ecos) y los reconvierte en señales eléctricas. Estas
señales son procesadas y convertidas en imagen (sonograma).
13
2.3 Panorama actual
Los sistemas de ultrasonido de uso general proveen de imágenes bidimensionales de casi
cualquier tejido blando evitando la exposición ionizante del paciente a la radiación. Estos sistemas
son utilizados en su mayoría en departamentos de Radiología e Imagen para complementar otras
modalidades de imagen. También es utilizado para hacer estudios abdominales y gineco-
obstétricos.
Algunos sistemas de uso general incluyen transductores que permiten estudios más
especializados tales como: cardíacos, vasculares, endovaginales, endorectales, partes pequeñas
(tiroides, senos, escroto y próstata).
Ultrasonido Doppler color. Equipo ultrasonográfico con fines diagnósticos con Doppler color
para abdomen, vascular periférico, gineco-obstétrico, partes pequeñas y músculo esquelético
tanto para pacientes adultos como pediátricos
Ecocardiógrafo. Estos equipos están designados especialmente para analizar en tiempo real, las
estructuras y funcionalidad del corazón. Este equipo además de ayudar a detectar defectos
congénitos y de funcionalidad, permite en algunos casos evitar la cateterización para vigilar la función
ventricular.
Ultrasonido vascular. Este equipo permite evaluar el desempeño de venas y arterias de todo el
cuerpo. Este sistema evita en muchos casos explorar de forma invasiva y obtener diagnósticos y
tratamientos claros y específicos.
Ultrasonido intravascular. Este sistema utiliza alta frecuencia en un diminuto transductor que
montado en un catéter produce señales de 360 grados en forma transversal de los vasos
sanguíneos. Esto permite aplicaciones de diagnóstico y terapéuticas.
Los sistemas cardiovasculares proveen de escaneo bidimensional (2D) de tejidos blandos y
estructuras en movimiento dependiendo de los transductores y de los paquetes, será la aplicación
para: estudios abdominales, gineco-obstétricos, urológicos, partes pequeñas, cardíacas, entre
otros.
14
Sin embargo, existen también los sistemas tridimensionales 3D y en Cuarta Dimensión 4D cuya
tecnología, utiliza ondas de sonido de alta frecuencia para obtener imágenes anatómicas en 2D y
libres de rayos X. La tecnología de 3D añade a estas imágenes, ya valiosas de por sí, la
profundidad, proporcionando una información mucho más detallada. En 4D se avanza un paso
más al añadir el movimiento a la imagen fija que aparece en 3D.
iViz
La FDA otorgó la autorización a FUJIFILM SonoSite para llevar al mercado su sistema de ultrasonido
compacto iViz que puede caber en el bolsillo de un uniforme y llevarse por la clínica durante todo el
día.
La pantalla es una pantalla de alto brillo de 7 ″ y la computadora tiene conectividad inalámbrica Wifi
y Bluetooth, además de un puerto HDMI para ver en pantallas más grandes, USB y conectividad a
EMR y otros sistemas en línea.
15
Butterfly iQ
Este escáner de ultrasonidos (ecógrafo) pequeño y de bajo costo, ayudará a que las ecografías sean
tan simples y ubicuas como los controles de presión arterial o de temperatura corporal en los
hospitales, allanando el camino para que todos los profesionales de la salud tengan una ventana al
cuerpo humano, según el Instituto de Tecnología de Massachusetts (MIT) en EU.
Este dispositivo personal de mano, denominado Butterfly iQ, ha sido desarrollado por el
doctor Jonathan M. Rothberg, profesor de Genética en la Universidad de Yale (New Haven,
Connecticut), y por Nevada Sánchez, ingeniero eléctrico y de software del MIT, cofundadores de la
firma fabricante Butterfly Network (BN).
Rothberg es reconocido por haber inventado el sistema ‘Next-Gen’ para secuenciar, es decir conocer
el orden exacto, de los millones de componentes del ADN o código genético humano, a alta
velocidad mediante tecnología digital, logrando que el acceso a la información genómica sea más
fácil, rápida y económica para los investigadores.
En 2011el doctor Rothberg reunió a un equipo de científicos e ingenieros que consiguió desarrollar
un sistema para que las imágenes médicas de ultrasonidos sean accesibles para todos los pacientes
y todos los profesionales de la salud en cualquier parte del mundo.
En 2017 la Administración de Alimentos y Medicamentos (FDA) estadounidense aprobó el Butterfly
iQ para 13 aplicaciones clínicas, la más amplia para una sola sonda de ultrasonido, lo que lo
convierte en un dispositivo de diagnóstico por imágenes para el cuerpo entero, según BN.
La FDA aprobó sus aplicaciones urológica, abdominal, fetal, cardiovascular, ginecológica y
musculoesquelética, entre otras.
Rothberg, con la colaboración de Sánchez y otros investigadores del MIT, consiguieron integrar en
un solo chip 9,000 elementos o ‘canales’ basados en materiales semiconductores que funcionan
como transductores de cristal, y permiten generar imágenes de ultrasonido en 3D, con la ayuda de
la electrónica, la computación ‘en La Nube’ y la Inteligencia Artificial (IA), según el MIT.
16
TOMOGRAFIA
COMPUTARIZADA
17
3.2 Antecedentes históricos
El desarrollo de esta tecnología se lo debemos a los ingenieros Allan Cormack y
Godfrey Hounsfield (quienes recibieron el premio Nobel de Fisiología y Medicina en
1979), así la división médica de la compañía EMI (conocida también por haber
lanzado a los Beatles) donde se desarrolló el primer prototipo.
El primer tomógrafo comercial fue introducido utilizaba un haz lineal con un solo
detector y un mecanismo de traslación/rotación, la adquisición de una sola imagen
tardaba 4.5 minutos, por lo que inicialmente se utilizaba solamente para visualizar
partes no móviles del cuerpo como el cráneo.
Durante la siguiente década y media se realizaron mejoras técnicas importantes que
resultaron en disminuir el tiempo de adquisición lo que permitió explorar todo el
cuerpo además del cráneo.
En 1989 se desarrolló la TC helicoidal, logrando el movimiento continuo del tubo y
de la mesa a una velocidad constante. Esta técnica mejoro drásticamente la
velocidad de adquisición permitiendo adquirir estudios de angiotomografías de
mayor calidad, además de disminuir artificios de movimiento.
El siguiente paso en el crecimiento de esta tecnología fue el desarrollo de la
tecnología multidetector, que incorpora múltiples hileras de detectores, esto permite
la adquisición de múltiples cortes por cada rotación del tubo, la cual dura menos de
1 segundo. En 1991 se desarrolló la TC de dos detectores y en 1998 apareció la TC
de 4 detectores. Actualmente hay equipos de hasta 256 detectores. La principal
ventaja de estos equipos es adquirir estudios angiográficos avanzados como
angiotomografía coronaria y generar imágenes submilimétricas que con
reconstrucciones avanzadas se pueden realizar estudios de colonoscopia o
broncospia virtual.
18
3.2 Principios de funcionamiento
La tomografía computarizada se fundamenta en el desarrollo de Hounsfield, quien
unió sensores o detectores de rayos X a una computadora y desarrolló una técnica
matemática llamada reconstrucción algebraica a fin obtener imágenes de la
información transmitida por los sensores de rayos X.
El equipo cuenta con una fuente de rayos X, la cual hace incidir la radiación en forma
de abanico sobre una delgada sección del cuerpo; basándose en que las diferentes
estructuras corporales presentan diferentes niveles de absorción de radiación, la
resolución de sensores o detectores capta estos diferentes niveles de absorción y
a partir de ahí la computadora obtiene o reconstruye una imagen basada en la
intensidad de radiación detectada la cual varía de acuerdo al patrón de atenuación.
A cada una de estas imágenes se le llama corte.
19
3.3 Panorama actual
Las diferentes tipos de tomógrafos están relacionados con los diferentes desarrollos
tecnológicos a lo largo del tiempo, a los cuales se les conoce como generaciones.
La primera generación de tomógrafos estaba integrada por un haz de rayos X
finamente colimados y un único detector; los cuales se trasladaban a lo largo del
paciente y rotaban entre cada translación sucesiva. Requerían al menos de 5
minutos para completar el rastreo.
La segunda generación se fundamentó también en la rotación y translación, pero
incorporaban un detector múltiple. Sin embargo, presentaba problemas con la alta
radiación dispersa. Mejoraron el tiempo requerido (20 segundos o más) para el
rastreo o escaneo gracias al arreglo de los 5 a 30 detectores que incorporaban.
La tercera generación mejoró aún más el tiempo requerido para el rastreo (1
segundo) gracias a que el tubo de rayos X y el arreglo de detectores rotaban
concéntricamente alrededor del paciente. A diferencia de la segunda generación, el
arreglo de detectores es curvo e incorpora un mayor número de detectores.
(Tomografía helicoidal)
La cuarta generación tiene una configuración rotatoria para el tubo de rayos X y
estacionaria para el arreglo de detectores, que son alrededor de 8,000 y se
encuentran circunscritos a un círculo. Los detectores están arreglados en una matriz
o retícula, de manera que pueden capturar dos o más cortes en cada vuelta del
emisor. El tiempo de rastreo también es de un segundo y pueden variar el ancho de
cada corte.
En particular la dosis de radiación al paciente se incrementa ligeramente y el costo
es también superior debido al gran número de detectores y la electrónica asociada
a los mismos. (Tomografía de cortes o multicortes)
La quinta generación de tomógrafos promete incorporar mejoras en la calidad de
imagen, así como en la disminución de la dosis de radiación al paciente. Algunos
adelantos se enfocan a nuevos movimientos del tubo de rayos X o el arreglo de
detectores, o ambos. Los incrementos de velocidad en la adquisición de las
imágenes han hecho posible el cine en tomografía (muy útil por ejemplo en
aplicaciones cardiológicas). Los diferentes adelantos en software hacen posible la
navegación virtual dentro de las diferentes estructuras o la visualización específica
de determinados órganos.
20
3.4 Avances tecnológicos
BodyTom
El BodyTom es el último desarrollo de la línea de tomografía computarizada portátil
de NeuroLogica. Es un CT portátil, de cuerpo entero, de 32 cortes que cuenta con
un impresionante pórtico de 85 cm y un campo de visión de 60 cm. El BodyTom®
alimentado por batería se puede transportar de habitación en habitación y es
compatible con PACS, navegación quirúrgica, historias clínicas electrónicas y
sistemas de planificación. Sus capacidades únicas proporcionan imágenes por TAC
de alta calidad dondequiera que se necesiten, incluyendo la clínica, la UCI, el
quirófano y el Departamento de Emergencias y Traumatología.
La combinación de tiempo de escaneo rápido, configuraciones flexibles y
visualización inmediata de imágenes hace del BodyTom una herramienta valiosa
para cualquier instalación que necesite imágenes por TAC en tiempo real versátiles.
Excelente calidad de imagen 3D,
32 corte, 32 Imágenes por segundo 85cm Pórtico, 60cm FOV, 4cm Apertura
1.25mm, 2.5mm, 5.0mm, 10mm Grosor del corte Resolución de imagen de 512 x
512 Longitud máxima de escaneo de 2 metros
Capacidades completas
Axial
Helicoidal
Dinámico
Portabilidad completa Sistema de accionamiento integrado Blindaje interno de
plomo Funciona con pilas Se conecta a una toma de pared estándar Fácil
integración
21
Resonancia
magnética
22
4.1 Antecedentes históricos
Esta expresión que nos muestra cómo una función continua se puede expresar
como la suma infinita (integral) de funciones trigonométricas basadas en la ecuación
de Euler: eie = cos θ + isen θ, es una expresión fundamental en el corazón de buena
parte de la tecnología de hoy. Se encuentra originada en el extenso y original trabajo
del matemático francés Jean Baptiste Joseph Fourier (1768-1830). Fourier era hijo
de un sastre y, educado por los benedictinos, fue ingeniero y matemático. Ejerció
una cátedra militar de matemáticas. Acompañó a Napoleón en su expedición
oriental de 1798 y fue nombrado gobernador del Bajo Egipto. De regreso en Francia
en 1801, inició sus estudios sobre la propagación del calor que condujeron a la
publicación de su obra cumbre en 1822: "Théorie analytique de la chaleur". En esta
obra, Fourier estudió la ecuación diferencial del flujo de calor y, como parte de ello,
intentó demostrar que cualquier función diferenciable puede ser expandida en una
serie trigonométrica. Trabajos posteriores de los matemáticos Dirichet, Riemann,
Lebesgue, Ardí, Littlewood, Wiener, Frobenius, Selberg, Weil, Weyl y Radon con su
transformada (de Radon o de rayos X) han desarrollado y completado la teoría. Este
paso, aparentemente irrelevante para la medicina en su época, es esencial tanto en
la tomografía computada como en la resonancia magnética médica de hoy, como
podremos ver a continuación
Un poco antes que Fourier, en 1820, Hans Christian Oersted (1777-1851) químico
y físico danés, haciendo una demostración a sus alumnos, adjuntó una pila eléctrica
a un cable conductor que se encontraba cerca de una brújula observando que la
aguja se movía en dirección al cable, descubriendo la relación entre la electricidad
y magnetismo. Este último fenómeno ya era conocido por las civilizaciones del Asia
Menor donde, en una región llamada Magnesia, se reportaban algunas rocas que
se atraían entre sí. Se las llamó magnets (imanes) aludiendo al lugar de su
descubrimiento. Andre Marie Ampere (1775-1836) profesor de física y química en
el Instituto de Bourg, y después profesor de matemáticas en la Escuela Politécnica
de París, al tomar conocimiento del descubrimiento de Oersted, elaboró una
completa teoría sobre el fenómeno que hemos mencionado. En ésta, formuló una
23
ley sobre el electromagnetismo (ley de Ampére) en la cual se describe
matemáticamente la fuerza magnética interac-tuando entre dos corrientes
eléctricas. También Michael Faraday (1791-1867), un químico y físico
prácticamente autodidacta, estudió las leyes del magnetismo y logró en 1831 inducir
electricidad en un conductor haciendo pasar corriente por un conductor cercano,
fenómeno conocido como inducción electromagnética, mostrando además cómo un
imán podía inducir corriente en un conductor. A estos notables descubrimientos que
consolidaron al electromagnetismo como una rama de la física, hay que agregar los
nombres de aquellos que dieron vida a la electricidad y el electromagnetismo
durante los siglos XVIII y XIX. Entre ellos destacan hombres como Benjamín
Franklin (1706-1790) con sus investigaciones primigenias de electricidad; Charles
Coulomb (1736-1806) con el estudio de las fuerzas electrostáticas; Alessandro Volta
(1745-1827) con su invención de la batería; Luigi Galvani (1737-1798) con sus
estudios de la relación entre actividad muscular y electricidad; Thomas Edison
(1847-1931) con sus avances hacia el tendido eléctrico y la invención del bulbo
eléctrico; Georg S. Ohm (1787-1854) con sus estudios de la resistencia eléctrica;
G.R. Kirchhoff (1824-1887) con sus leyes de conducción en los circuitos; H.K.
Onnes (1853-1926) con el descubrimiento de la superconducción; Nikola Tesla
(1856-1943) con sus trabajos en ondas electromagnéticas; Edwin.H. Hall (1855-
1938) con sus experimentos de campo eléctrico; Heinrich Hertz (1857-1894) y
James C. Maxwell (1831-1879) y sus trabajos en ondas electromagnéticas; Joseph
Henry (1797-1878) con sus trabajos en inducción magnética; Pierre E Weiss con
sus trabajos en ferromagnetismo; Heinrich Lenz (1804-1865) con sus trabajos de
inducción electromagnética. Todos ellos contribuyeron al desarrollo de la tecnología
que hoy hace posible la aplicación de la resonancia magnética en medicina.
24
3.3 Panorama actual
25
Campo magnético de 3T
26
Por último, la resonancia magnética tres teslas, además de ser útil en el diagnóstico
de tumores cerebrales, también puede emplearse en la realización de angiografías
cerebrales, pues es capaz de detectar pequeños aneurismas cerebrales, estudiar
las malformaciones vasculares y, en el caso de la epilepsia, detectar lesiones
corticales de tamaño muy reducido.
27
Métodos invasivos
para la medición de
los signos vitales
28
5.1 Antecedentes históricos
El catéter de la arteria pulmonar (CAP) ha constituido una herramienta fundamental
para la monitorización hemodinámica en las unidades de cuidados intensivos (UCI)
durante los últimos 40 años. Durante este período de tiempo, el CAP ha sido
ampliamente usado en pacientes críticos para el diagnóstico y como guía del
tratamiento, ayudando a los clínicos a entender la fisiopatología de muchos
procesos hemodinámicos. Sin embargo, en los últimos años la utilidad del CAP ha
sido sometida a un intenso debate, debido fundamental- mente a la publicación de
trabajos en los que su utilización no se asociaba a un beneficio en la supervivencia.
De hecho, en varios de estos estudios su uso se asociaba a mayor mortalidad.
Paralelamente, los avances tecnológicos han permitido el desarrollo de nuevas
técnicas menos invasivas para la monitorización cardiovascular, reforzando la idea
de que el uso sistemático del CAP podía haber llegado a su fin. A pesar de la
controversia creada, no cabe duda de que mediante el CAP se pueden obtener
variables hemodinámi- cas únicas, valiosas y útiles en la guía de la reanimación del
paciente en estado crítico.
A lo largo de los últimos años se han estudiado nuevos métodos que han llegado a
reemplazar el uso del CAP para la determinación del gasto cardíaco (GC). Estas
nuevas tecnologías varían ampliamente entre ellas, de muy invasivas a menos
invasivas y hasta no invasivas, de intermitentes a continuas, y cada una de ellas
con sus principios básicos, métodos y costes. Algunas proporcionan índices
dinámicos de respuesta a los fluidos, que están siendo considerados como
mejores predictores de respuesta al aporte de volumen, otras permiten valorar
variables de precarga volumétrica y otras aportan medidas continuas de la
saturación venosa central. Todas estas variables, junto con el GC, están destinadas
a mejorar la monitorización hemo- dinámica de los pacientes críticos10. Hasta el
momento, ninguna de ellas cumple todas las características necesarias para ser
considerada como excelente: no invasiva, continua, fiable, reproducible, cómoda
tanto para el paciente como para el profesional, exacta y con los mínimos efectos
secundarios11,12. Por lo tanto, la utilización de cada una de ellas va a depender
fundamentalmente de su disponibilidad y de los conocimientos o aptitudes del
profesional.
Todas estas técnicas han sido valoradas y validadas mediante la comparación de
sus resultados con el considerado gold standard, que aún a día de hoy sigue
siendo la termodilución intermitente de la arteria pulmonar.
Esta puesta al día pretende dar a los clínicos una visión de los parámetros
hemodinámicos que aportan los distintos métodos disponibles, considerando que
es fundamental comprender tanto su potencial utilidad clínica como sus
limitaciones para un uso eficaz de la información que proporcionan.
29
Catéter de arteria pulmonar o de Swan-Ganz
Introducido en 1970 por J.C. Swan y W. Ganz. Se canaliza a través de una vena de
gran calibre que a través del corazón derecho se introduce en la arteria pulmonar y
deja alojado su extremo distal en una ramificación de esta arteria. El CAP nos
proporciona información sobre 3 categorías de variables diferentes: medidas de flujo
sanguíneo (GC), presiones intravasculares intratorácicas y parámetros oximétricos.
DC = FC x VS
30
Presión Arterial Directa (línea arterial)
31
debe quedar alojada en la vena cava superior, confirmándose su ubicación
mediante una RX de tórax. Entre las complicaciones que pueden producirse está la
punción arterial y la formación de hematomas que en el caso del cuello pueden
producir obstrucción de vía aérea. La formación de hematomas por desgarro de la
vena subclavia o punción de la arteria, como es obvio no son compresibles,
formándose hematomas extrapleurales visibles en la RX de Tórax de control. El
neumotórax es la complicación más frecuente aún en manos experimentadas y se
produce solamente en las punciones yugulares internas y subclavia. El abordaje
izquierdo de la yugular interna y subclavia pueden lesionar el conducto torácico
produciendo un Quilotórax. Por último, la infección del catéter es frecuente cuando
no se respeta la técnica estéril.
32
alternativa práctica. Recientemente, se han propuesto una serie de mediciones del
flujo venoso pulmonar por ecocardiografía Doppler para la estimación de la PAPO14,
aunque las variables obtenidas mediante Doppler derivadas del flujo transmitral
(TMF) y venoso pulmonar (PVF) son poco exactas, consumen tiempo, no se pueden
obtener en todos los pacientes, y requieren un alto grado de experiencia, más allá
de los principios básicos de ecocardiografía15. Pese a ello, en los últimos años se
han desarrollado nuevos parámetros obtenidos con Doppler tisular que añaden más
exactitud a la técnica. De todas formas, la utilidad de la PAPO en el paciente crítico
necesita ser redefinida. Se ha demostrado, de forma reiterada y consistente, que la
PAPO tiene bajo valor predictivo en la evaluación de la respuesta al volumen. Por
lo cual, no se recomienda que el clínico utilice los valores absolutos de PAPO a pie
de cama para predecir la respuesta a la administración de líquidos. En este aspecto,
las variables obtenidas del análisis de la curva de presión arterial durante la
ventilación con presión positiva, como la variación de la presión de pulso o la
variación del volumen sistólico, predicen la respuesta a volumen de forma mucho
más fiable16. Sin embrago, las mediciones de la PAPO siguen siendo de gran ayuda
en el diagnóstico del origen de la hipertensión pulmonar, y en la diferenciación entre
edema pulmonar primario (no cardiogénico) y secundario (cardiogénico).
Saturación venosa mixta y otras variables oximétricas
La saturación de oxígeno a nivel de arteria pulmonar distal o saturación venosa
mezclada o mixta (SvO2) es probablemente el mejor indicador aislado de la
adecuación del transporte global de oxígeno (DO2), puesto que representa la
cantidad de oxígeno que queda en la circulación sistémica después de su paso por
los tejidos. Se ha propuesto el uso de la saturación venosa central de O2 (SvcO2)
como un método sencillo, en sustitución de la SvO2, para evaluar la idoneidad de la
perfusión global en varios escenarios clínicos. Sin embargo, el hecho de que la
SvcO2 sea reflejo de la SvO2ha sido muy discutido, especialmente en el paciente
crítico. Además, con los valores obtenidos de GC y SvO2, junto con los valores
arteriales de oxigenación, se puede calcular el transporte y el consumo global de
oxígeno (DO2 y VO2, respectivamente), así como el shunt oximétrico pulmonar y el
cálculo del gradiente oximétrico en la rotura aguda del tabique interventricular.
Ventajas e inconvenientes
El CAP parece ideal para identificar y monitorizar los diferentes patrones de shock
circulatorio (hipovolémico, cardiogénico, obstructivo y distributivo), con la obtención
de los componentes principales de cualquier patrón: GC, PAPO y oximetría. Usando
estas 3 medidas, asociadas a medidas directas de presión arterial media, permiten
definir la etiología del shock, así como monitorizar la respuesta al tratamiento.
Basado en estos argumentos, el CAP ha sido una de las piedras angulares para el
manejo del paciente en nuestras UCI, utilizándose como sistema sistemático de
33
monitorización. Sin embargo, sus datos han sido ignorados o simplemente usados
para definir la estabilidad del paciente. Este uso poco específico e indiscriminado
podría ser responsable, al menos en parte, de la falta de eficacia, en cuanto a la
supervivencia, apuntada en diferentes trabajos.
Otro factor contribuyente lo hallamos en la comprobación repetida del escaso
conocimiento de los clínicos en la interpretación de la información obtenida
mediante el CAP, como en el análisis de la morfología de la onda de PAPO y la falta
de correcta comprensión de las variables fisiológicas obtenidas para su traslado al
contexto clínico. Obviamente, ningún sistema de monitorización hemodinámica será
capaz de mejorar el pronóstico del paciente, excepto si la información obtenida
mediante dicho sistema se asocia a la elección de un tratamiento que sí pueda
mejorar la supervivencia del paciente.
Frente a lo que se acaba de exponer, varios estudios han demostrado que el uso
del CAP en el tratamiento dirigido por objetivos mejora el pronóstico de los pacientes
tratados. Cuando las estrategias de resucitación han sido dirigidas por variables
hemodinámicas derivadas del CAP, como el DO2, el índice cardíaco (IC), o la SvO2,
se han conseguido reducciones significativas en la estancia hospitalaria, así como
una mayor supervivencia. Por lo tanto, parece que el CAP es, de hecho, una
herramienta útil, capaz de mejorar la supervivencia cuando se asocia a un algoritmo
de tratamiento con objetivos fisiológicos específicos y se utiliza en los pacientes
adecuados. No ha mostrado beneficio cuando se ha utilizado en poblaciones de
bajo riesgo quirúrgico, o cuando se ha utilizado para guiar la reanimación en fases
tardías de la enfermedad, una vez que el daño orgánico ya se ha desarrollado25.
Tampoco ha demostrado efecto beneficioso, cuando se han comparado estrategias
de manejo del aporte de volumen dirigidas por PAPO frente a PVC, como en el
reciente estudio FACCT, puesto que ninguna de las 2 variables usadas son medidas
fiables de precarga o de respuesta a volumen.
Además del debate en lo referente al pronóstico de los pacientes, se ha hecho
hincapié en las complicaciones potenciales del CAP para reforzar los argumentos
en contra de su uso. Evidentemente, como cualquier técnica invasiva, no está
exenta de riesgos y complicaciones. Numerosos estudios han demostrado que las
complicaciones locales derivadas de la inserción del PAC no difieren de las
derivadas de la inserción de cualquier otro catéter venoso central. Sin embargo, sí
se ha asociado a un incremento en el riesgo de infecciones (incidencia de
bacteriemia del 0,7-1,3%) y a fenómenos trombóticos durante su uso prolongado (>
48 h), así como a un aumento del riesgo de arritmias durante su inserción (aunque
con mínima incidencia de arritmias graves, y sin repercusión en el pronóstico). De
todo esto se puede deducir que la asociación de CAP y mejoría o no del pronóstico
va a depender de cómo, cuándo, dónde y en qué tipo de pacientes se utilice.
34
5.4 Avances tecnológicos
VPP no-invasivo
35
Variación del volumen sistólico (VVS)
36
aplicando de manera dinámica una contrapresión durante todo el ciclo cardiaco.
Esta tecnología mide de forma continua (latido a latido) la presión arterial y la PPV.
El GC se calcula mediante la monitorización continua de la presión arterial y el
análisis del contorno de la onda de pulso que se basa en el análisis del área de la
onda de presión sistólica y en el método Modelflow. El CG, el VS, las RVS y un
índice de contractilidad del VI se obtienen de manera continua. Tiene buena
correlación con la termodilución. Uno de los problemas con este dispositivo es que
en pacientes con hipoperfusión existe el riesgo de necrosis distal del dedo donde
se aplica el monitor.
37
Fuentes de consulta
38
MODERNA. Revista chilena de radiología, 10(4), 183-
185. https://dx.doi.org/10.4067/S0717-93082004000400007
Canals, Mauricio. (2008). HISTORIA DE LA RESONANCIA MAGNÉTICA DE
FOURIER A LAUTERBUR Y MANSFIELD: EN CIENCIAS, NADIE SABE PARA
QUIEN TRABAJA. Revista chilena de radiología, 14(1), 39-
45. https://dx.doi.org/10.4067/S0717-93082008000100009
González M. (2009) AVANCES TECNOLOGICOS EN ESCANOGRAFIA Y
RESONANCIA [elhospital.com]. Recuperado de:
http://www.elhospital.com/temas/Avances-tecnologicos-en-escanografia-y-
resonancia+8072707
Pérez-Calatayud, Ángel Augusto, Linarte-Basilio, Mónica Elizabeth, Díaz de León
Ponce, Manuel, Carrillo Esper, Raúl, & Briones-Garduño, Jesús Carlos. (2017).
Monitoreo hemodinámico no invasivo y mínimamente invasivo en la paciente
obstétrica grave. Medicina crítica (Colegio Mexicano de Medicina Crítica), 31(5),
275-284. Recuperado en 18 de octubre de 2020, de
http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S2448-
89092017000500275&lng=es&tlng=es.
39