Está en la página 1de 39

UNIVERDIDAD AUTONOMA DEL ESTADO DE MEXICO

FACULTAD DE MEDICINA

LICENCIATURA BIOINGENIERIA MEDICA


EVALUACIÓN PRIMER PARCIAL
PATOLOGÍA CLÍNICA

PROFESOR: Dr. BARUC GOMEZ HERNANDEZ

ALUMNO:
BERNARDINO BERNARDINO GUSTAVO No DE CUENTA: 1820516

PERIODO 2020B

1
contenido
Introducción 3
1. Rayos x 4
1.1. Antecedentes históricos 5
1.2. Principios de operación 6
1.3. Panorama actual 7
1.4. Avances tecnológicos 9
2. Ultrasonido 11
2.1. Antecedentes históricos 12
2.2. Principios de operación 13
2.3. Panorama actual 14
2.4. Avances tecnológicos 15
3. Tomografía 17
3.1. Antecedentes históricos 18
3.2. Principios de operación 19
3.3. Panorama actual 20
3.4. Avances tecnológicos 21
4. Resonancia 22
4.1. Antecedentes históricos 23
4.2. Principios de operación 24
4.3. Panorama actual 25
4.4. Avances tecnológicos 26
5. Métodos invasivos para medir los signos vitales 28
5.1. Antecedentes históricos 29
5.2. Principios de operación 30
5.3. Panorama actual 32
5.4. Avances tecnológicos 35
Referencias 38

2
Introducción
Hasta hace unos trescientos años, la ciencia médica siguió siendo casi la misma de
los antiguos. El hombre conocía muy pocas cosas sobre su cuerpo e ignoraba las
verdaderas causas de muchas de sus enfermedades.

Afortunadamente, estamos viviendo una gran revolución de la tecnología y junto con


ello, el progreso de la medicina. Es un área que ha evolucionado completamente y
estos avances tecnológicos son particularmente necesarios para curar, controlar e
incluso prevenir muchas enfermedades. Asimismo, dispositivos médicos
sofisticados son capaces de hacer un diagnóstico preciso y transmitir información
importante sobre el paciente, así como buscar el bienestar general de toda la
población.

Conocer los antecedentes, su estado actual, así como las prospectivas de los
dispositivos médicos es de vital importancia pues nos muestran un panorama claro
de como hemos avanzado en su desarrollo de este modo podemos seguir
planteándonos caminos posibles para el desarrollo continuo de las técnicas de
diagnóstico como los rayos x, ultrasonido, tomografía, resonancia y métodos
invasivos para la medición de signos vitales por mencionar algunos.

3
Rayos x

4
1.1 Antecedentes históricos

La radiología como tal, nace el 8 de noviembre de 1895, con el descubrimiento de los Rayos X por
Wilhelm Conrad Roentgen.
A partir de otoño de 1895, Wilhem Conrad Roentgen se interesó profundamente por los experimentos
con el tubo de rayos catódicos de Hittorf y Crookes, repitiendo ciertos experimentos de Lenard sobre
la fluorescencia del platinocianuro de bario fuera del tubo de vacío.
En noviembre de 1895, descubrió que una pieza de cartón cubierta con cristal de platinocianuro de
bario, se volvía fluorescente cuando un haz de rayos catódicos pasaba a través de un tubo de Hittorf,
fue así como realizó la primera radiografía de la historia: la mano de su esposa Bertha Röntgen.

1era rayos x: Mano de Bertha Roentgen

Paulatinamente pudo demostrar que esta fluorescencia ocurría a pesar de colocar diferentes objetos
entre el tubo y la superficie fosforescente, mientras que el plomo no permitía el paso de estos nuevos
¨rayos¨. Posteriormente realizó impresiones sobre placas fotográficas y el 28 de diciembre de 1895,
en la sociedad Física-Medica de Würzburg, presentó su comunicación: ¨Una Nueva Clase de Rayos¨.
Durante los 120 años de vida de la radiología, esto ha venido a ser una herramienta en general para el
diagnóstico de enfermedades de manera oportuna y creciendo al par de la tecnología, para dar paso
a otras innovaciones dentro de la misma área de diagnóstico.

5
1.2 Principios de operación

Los fotones emitidos por el tubo de rayos X entran al cuerpo del paciente. Estos fotones dependiendo
de su energía pueden pasar sin interactuar con los tejidos, pueden absorberse o pueden dispersarse
por el cuerpo del paciente. Los fotones primarios registrados por el sistema receptor forman la
imagen, mientras que los fotones dispersos, pero no absorbidos contribuyen a la formación de una
imagen de fondo que degrada la imagen de interés. En buena medida, los fotones dispersos pueden
eliminarse por medio de dispositivos, tales como rejillas o espacios de aire que absorben la radiación
dispersa.
El tubo de rayos X es el elemento fundamental en toda instalación radiológica. Este elemento está
constituido por un cátodo (-) con un filamento caliente y un ánodo (+) hecho de metal refractario y
pesado que mantienen una diferencia de potencial. El cátodo y el ánodo se mantienen en un sistema
al vacío dentro de un tubo de vidrio.
Los electrones son arrancados del filamento por el potencial positivo del ánodo y chocan con éste
con una fuerza proporcional al potencial positivo. Existe una pieza metálica que sirve para dirigir al
flujo de electrones sobre la superficie específica en el ánodo.

Sistema de rayos X. B y E son fotones que han atravesado al paciente sin interaccionar; C y D son fotones dispersos. D ha sido
absorbido por la rejilla antidifusora; A ha sido absorbido por el paciente.

El choque de los electrones produce la aparición de la radiación X primaria que se dirige del cátodo
hacia todas las direcciones. Sólo se empleará la parte de la radiación que se dirige hacia la ventana
óptica del tubo. El resto de la radiación no sólo es inútil, sino que disminuye la calidad de la imagen,
de tal manera que el tubo se encuentra dentro de una envoltura opaca a los rayos X y tiene una
ventana de salida para la radiación primaria útil.

La tensión eléctrica se traduce en una radiación más o menos penetrante. Esta radiación podrá
alcanzar capas profundas y revelar estructuras de las partes más opacas del cuerpo. La cantidad de
radiación es proporcional al producto del tiempo de irradiación por el número de electrones que
bombardean al ánodo. El mismo resultado se puede obtener con una radiación de alta energía en
un tiempo corto o por un tiempo largo con menos energía.
6
1.3 Panorama actual
Actualmente existe una gran variedad de modalidades para obtener una imagen médica, todos estos
sistemas o tecnologías se basan en la generación de rayos X, es por eso que a continuación se
mencionan brevemente.
Modalidad Tipos Descripción
Está compuesta por un tubo intensificador de imagen y un
circuito cerrado de televisión con uno ó dos monitores para la
visualización de la imagen. El intensificador de imagen cuenta
con un tubo al vacío, que contiene un elemento fosforescente
Fluoroscopía de entrada y un fotocátodo, lentes electroestáticos, ánodos de
aceleración y un elemento fosforescente de salida.

Convencional El elemento fosforescente de entrada absorbe los rayos X que


pasan a través del paciente y vuelve a emitir parte de la
energía absorbida como un gran número de fotones de luz
visible. Los fotones de luz emitidos por el elemento
fosforescente de entrada son absorbidos por el fotocátodo, el
cual emite fotoelectrones que son acelerados a través del tubo
por el ánodo y son enfocados al elemento fosforescente por
lentes electroestáticos. El patrón o imagen radiológica de luz
es capturada por una cámara de televisión que transforma el
patrón de luz en una señal de video analógica o eléctrica que
puede ser observada en el monitor
de televisión.
El principio de operación es el mismo que en la convencional,
con la diferencia que la señal de video es digitalizada con la
ayuda de un convertidor analógico digital.

Digital El resultado es una matriz de datos digitales o numéricos para


cada imagen de video, que corresponde a la intensidad del
brillo de la luz visible de la imagen. La imagen digital es
depositada en una matriz que está compuesta de líneas y
columnas de datos llamados pixeles, para
cada punto individual de imagen. Los pixeles son elementos
de imagen individuales en una imagen de dos dimensiones.
Sistema de diagnóstico angiográfico de rayos X que incluye
una gran variedad de configuraciones de equipos de rayos X
fluoroscópicos para propósitos especiales, específicamente
diseñados para perfeccionar la capacidad de los usuarios para
Angiógrafo evaluar, visual y cuantitativamente la anatomía y función de
los vasos sanguíneos del corazón, cerebro y otros órganos,
así como del sistema linfático. Usa técnicas analógicas,
analógicas – digitales, o digitales para la captura y despliegue
de imágenes en tiempo real. Típicamente incluye un sistema
de imagen por rayos X, componentes de despliegue y video,
software específico para
aplicaciones angiográficas, estaciones/consolas de trabajo.
Se usa por lo general en conjunción con medios de contraste
inyectables.

7
Sistema que utiliza energía diagnóstica doble de rayos X
conocida como absorciometría o densitometría (DEXA),
diseñado para medir la densidad de los huesos y obtener otros
Densitómetro cálculos obtenidos de acuerdo a la información de dos picos
óseo de energía de fotones. Este tipo de densitómetro utiliza un
tubo de rayos X como fuente generadora de fotones, misma
que es alineada de forma mecánica y se mueve hacia un
detector de fotones típicamente en un patrón rectilíneo. El rayo
colimador es dirigido a través de la región anatómica de
interés y la
diferencia de absorción es detectada. Esta información es
utilizada en los cálculos para estimar la densidad mineral
ósea, la grasa subcutánea, riesgo de fracturas, etc.

Modalidad Tipos Descripción


Sistema de diagnóstico por rayos X diseñado específicamente
para comprimir y visualizar la glándula mamaria. La mayoría
Analógico de los sistemas de mastografía no pueden usarse para otras
aplicaciones de imaginología. Los sistemas de mastografía se
usan para búsqueda de cáncer de mama y también en la
Mastógrafo colocación de marcadores de biopsia, biopsia estereotáxica y
localización de lesiones que requieren guía de
rayos X.

Sistema de rayos X específicamente diseñado para comprimir


el seno. Un sistema de mastografía digital (SMD) se usa para
registrar la absorción de los patrones de absorción de haces
Digital de rayos X que pasan a través del seno o mama hacia varios
medios de archivo de imágenes,
p. e. película, papel y formatos de video /digital. Se usa para
optimizar la capacidad de los usuarios para evaluar
visualmente la anatomía y función de los vasos sanguíneos y
linfáticos dentro del seno. Usa técnicas digitales para capturar
la imagen, desplegarla y manipularla. Se
usa para detección de cáncer de mama y para colocar
instrumentos de biopsia, biopsia estereotáxica y localización
de la lesión.
Sistema de diagnóstico por rayos X de tomografía
computarizada (TC), que posee un “gantry” suficientemente
grande como para permitir la toma de imágenes de cualquier
parte del cuerpo. Incluye diseños con arreglos de tubos de
Tomografía rayos X y detectores anulares fijos, simples o múltiples, así
computarizada como diseños en los que los tubos de rayos X y arreglos de
detectores opuestos rotan rápidamente alrededor de un punto
de eje central dentro del área de imagen del “gantry”. Puede
producir imágenes de 2 a 3 dimensiones de secciones
transversales (tomografías). Incluye TC helicoidal y otras
aplicaciones especiales de imaginología a múltiples ángulos,
que se especifican en relación a la posición del cuerpo. Puede
usar una variedad de técnicas digitales para
capturar la información, reconstruir las imágenes y
desplegarlas.

8
Unidad de tratamiento de radioterapia externa. Convierte la
electricidad en radiaciones ionizantes de alta energía. Estas
radiaciones pueden ser rayos X o electrones. El acelerador
lineal también conocido como LINAC (linear accelerator) es un
Acelerador lineal tipo de equipo que le proporciona a la partícula subatómica
cargada pequeños incrementos de energía cuando pasa a
través de una secuencia de campos eléctricos alternos.

Los aceleradores lineales se componen de cuatro elementos


importantes: un modulador, un generador de electrones, una
fuente de energía de radiofrecuencia (RF) y un tubo para el
acelerador.
Las unidades radiográficas dentales, tales como: la Intraoral,
la panorámica y las unidades radiográficas dentales
cefalométricas consisten en un generador de rayos X, un tubo
de rayos X, un colimador, un contador de tiempo para la
exposición y un panel de control. La configuración de estos
componentes depende del tipo de radiografía realizado y del
Rayos X dental tipo de generador de rayos X usado.

El generador de rayos X modifica el voltaje y la corriente de


entrada para recibir del tubo de rayos X la energía necesaria
para producir un haz de rayos X de un kilovoltaje máximo
deseado (kV) y una corriente medida en miliamperios (mA),
para los estudios radiográficos dentales. El kilovoltaje
(también llamado como el potencial del tubo) para los sistemas
dentales de rayos X puede tener un rango entre 50 y 110
kilovoltios y la corriente del tubo puede estar en un rango
entre 1 y 20 mA, dependiendo del modelo.

1.4 Avances tecnológicos


DRX- Revolution Nano
La aplicación de los nanotubos de carbono ha permitido desarrollar el equipo digital de rayos X más
pequeño del mundo, el DRX- Revolution Nano, cuyo peso es de solamente unos 100 Kg., un 80%
menos que los equipos de portátiles como el DRX-Revolution con ampolla de vacío.
Esta sustancial reducción del peso y del volumen, que se debe a que los nanotubos de carbono
pesan un 75 % menos que los tubos actuales, es fundamental en las nuevas aplicaciones de los
equipos digitales portátiles, los cuales se convierten en verdaderas salas de rayos “sobre ruedas”
que pueden trasportarse manualmente, caben sin dificultad en un ascensor y tienen autonomía
suficiente para realizar cerca de 150 pruebas sin necesidad de enchufarse a la corriente eléctrica.
Pero quizás lo más importante, más allá de cuestiones puramente tecnológicas, es el modo en el
que todas estas cualidades permiten a los profesionales proporcionar una mejor atención a los
pacientes, en muchos casos a pie de cama o en las salas de UCI y pediatría.
El cátodo con filamento incandescente, que era el origen de toda la producción radiógena, tiene los
días contados y la tecnología de carbono, totalmente disruptiva, va a empezar a sustituirla, lo que va
a permitir reducir el peso de los equipos, mejorar su ergonomía y, a través de los software de
procesado, reducir aún más las dosis de radiación recibidas por los pacientes.

9
DRX- Revolution Nano

FDR-flex

El FDR-flex, de Fujifilm, es un sistema DR liviano, totalmente inalámbrico, que puede ser utilizado
en sitios remotos y se compone de caja de comunicaciones, computador portátil y panel original FDR
D-EVO o panel inalámbrico de la serie P. Al conectarlo a una fuente de rayos X, detecta
automáticamente la exposición y muestra imágenes previas en 1 a 2 segundos.
El detector produce imágenes nítidas con alta eficiencia de dosis, gracias a la tecnología de muestreo
de irradiación lateral, que mediante transistores de película delgada ubicados en la parte superior de
la capa de centelleo, captura las señales donde son más claras y fuertes, reduciendo la dispersión
de la luz y el desenfoque y aumentando la nitidez y la detección cuántica; y a la tecnología Dynamic
Visualization, que reconoce la región de interés y aplica parámetros de procesamiento automático
en todo el campo de exposición, generando imágenes con altos niveles de contraste y detalle. El
FDR-flex incluye además funciones de procesamiento multifrecuencia, control flexible del ruido y
eliminación del patrón de rejilla.
La caja de comunicaciones cabe en el compartimiento para casetes de la mayoría de las unidades
de rayos X analógicas móviles y está disponible un sistema de montaje de bandeja reemplazable.

10
ULTRASONIDO

11
2.1 Antecedentes históricos

En 1793 el italiano Lassaro Spallanzani, profesor de Padua, descubrió que los murciélagos podían
realizar sus vuelos con gran seguridad aún en la más completa oscuridad, o sea, que poseían algún
sentido que a los científicos de la época les era desconocido. Jurin observó que si se cubría la cabeza
de los murciélagos con capuchas no podían obviar obstáculos en su vuelo, aunque las capuchas
fueran transparentes; pensó entonces que el oído estaba implicado: tapándoselos con cera el
murciélago era incapaz de saltar los obstáculos en la oscuridad. A su muerte Spallanzani estaba
plenamente convencido de que el murciélago en la noche se orientaba gracias al oído y que al volar
debía producir algún sonido que se reflejaba sobre los objetos, por lo que era nuevamente percibido
por él; es decir, que se trataba de una especie de eco. La teoría de Spallanzani tenía un
inconveniente porque en la época solo eran conocidas las ondas sonoras (audibles) y el vuelo del
murciélago era silencioso. Por esto, su teoría fue muy criticada y enterrada durante muchos años.

El fin de la última centuria fue una época fructífera científicamente. Durante ese tiempo se
descubrieron las ondas de radio, la radioactividad, los rayos X y la existencia de la energía acústica
fuera de los límites percibidos para el oído humano (infrasonidos y ultrasonidos). Los hermanos
Pierre y Jacques Curie, en 1880, descubrieron el fenómeno de la piezoelectricidad y publicaron los
resultados obtenidos al experimentar la aplicación de un campo eléctrico alternante sobre cristales
de cuarzo y turmalina, los que produjeron ondas sonoras de muy altas frecuencias. En 1883 apareció
el llamado silbato de Galton, usado para controlar perros por medio de sonido inaudible a los
humanos.

En 1912, poco después del hundimiento del Titanic, el inglés L. F. Richardson sugirió la utilización
de ecos ultrasónicos para detectar objetos sumergidos. Durante la Primera Guerra Mundial, se
trabajó intensamente en esta idea, intentando detectar submarinos enemigos.

En 1917 Paul Langevin y Chilowsky produjeron el primer generador piezoeléctrico de ultrasonido, su


cristal servía también como receptor y generaba cambios eléctricos al recibir vibraciones mecánicas.
El aparato fue utilizado para estudiar el fondo marino como una sonda ultrasónica para medir
profundidad. El zoólogo norteamericano Grifinn, en el año 1938, demostró experimentalmente la
existencia real de la emisión de ultrasonidos por los murciélagos. La invención del llamado
reflectoscopio por F. A. Firestone (1942), que permitía detectar defectos internos en las estructuras
sólidas, dio las bases para la construcción de los ecógrafos actuales. El reflectoscopio utilizaba un
método de eco en el que el emisor estaba constituido por un cuarzo piezoeléctrico, en tanto que el
receptor lo constituía un piezoeléctrico de sales de Rochelle; ambos piezoeléctricos estaban al
mismo lado del objeto examinado. Las ondas reflejadas en el interior de las sustancias o materiales
eran exhibidas cuantitativamente en la pantalla oscilográfica.

Terminada la Segunda Guerra Mundial comenzó el desarrollo de equipos diagnósticos en Medicina


cuando grupos de investigadores japoneses, americanos y de algunos países europeos trabajan
paralelamente para fabricar los primeros prototipos de equipos para diagnóstico médico en modo A
(Analogue) y, posteriormente, en modo B (Bright) con imagen analógica.

12
Los ultrasonidos como medios de diagnóstico en Medicina fueron introducidos, por primera vez, en
1942 por Dussik para explorar anomalías cerebrales. El psiquiatra intentó detectar tumores
cerebrales al registrar el paso del haz sónico a través del cráneo y trató de identificar los ventrículos
al medir la atenuación del ultrasonido, lo que denominó hiperfonografía del cerebro.

2.2 Principios de operación

Ultrasonido se refiere a ondas de sonido emitidas a frecuencias mayores del rango auditivo humano.
Para realizar diagnósticos por imaginología, las frecuencias más usadas son las que varían dentro
del rango de 2 a 15 MHz. Para el escaneo vascular las frecuencias utilizadas van de los 5 a los 15
MHz y para el caso de escaneo intravascular las frecuencias van de los 15 a los 30 MHz.

Las ondas de ultrasonido son vibraciones mecánicas (acústicas) que requieren de un medio de
transmisión; debido a que presentan las propiedades normales de una onda, que son de reflexión,
refracción, y difracción, esto es, que se pueden dirigir, enfocar y reflejar.
Un sistema típico de escaneo por ultrasonido consta de las siguientes partes:

• Formador de rayo (en inglés “beamformer”)


• Unidad central de procesamiento
• Interfase de usuario (teclado, panel de control)
• Varios tipos de transductores o cabezas para escasear
• Uno o varios monitores o pantallas de despliegue de video
• Dispositivo de almacenamiento de datos
• Fuente de poder o sistema de alimentación eléctrica

La imagen de ultrasonido se logra colocando un transductor sobre la piel del paciente o se inserta
dentro de alguna cavidad. Estos sensores contienen uno o más elementos de material
piezoeléctrico. Cuando la energía de ultrasonido emitida por el sensor es reflejada por el tejido, el
transductor recibe algunos de estos reflejos (ecos) y los reconvierte en señales eléctricas. Estas
señales son procesadas y convertidas en imagen (sonograma).

Transductor electrónico de arreglo lineal.

13
2.3 Panorama actual
Los sistemas de ultrasonido de uso general proveen de imágenes bidimensionales de casi
cualquier tejido blando evitando la exposición ionizante del paciente a la radiación. Estos sistemas
son utilizados en su mayoría en departamentos de Radiología e Imagen para complementar otras
modalidades de imagen. También es utilizado para hacer estudios abdominales y gineco-
obstétricos.

Algunos sistemas de uso general incluyen transductores que permiten estudios más
especializados tales como: cardíacos, vasculares, endovaginales, endorectales, partes pequeñas
(tiroides, senos, escroto y próstata).

Ultrasonido de propósito general. Equipo para exploración ultrasonográfico de propósito


general, es decir que puede utilizarse tanto es estudios radiológicos, vasculares, cardiológico y
gineco-obstétricos, sin contar con programas tan especializados para cada modalidad. Esto
estudios cuentan con modos de operación B, M y Doppler color.
Ultrasonido Gineco-obstétrico. Equipo de propósito general que permite realizar
procedimientos diagnósticos específicos en ginecología y obstetricia.

Ultrasonido Doppler color. Equipo ultrasonográfico con fines diagnósticos con Doppler color
para abdomen, vascular periférico, gineco-obstétrico, partes pequeñas y músculo esquelético
tanto para pacientes adultos como pediátricos

Ecocardiógrafo. Estos equipos están designados especialmente para analizar en tiempo real, las
estructuras y funcionalidad del corazón. Este equipo además de ayudar a detectar defectos
congénitos y de funcionalidad, permite en algunos casos evitar la cateterización para vigilar la función
ventricular.
Ultrasonido vascular. Este equipo permite evaluar el desempeño de venas y arterias de todo el
cuerpo. Este sistema evita en muchos casos explorar de forma invasiva y obtener diagnósticos y
tratamientos claros y específicos.
Ultrasonido intravascular. Este sistema utiliza alta frecuencia en un diminuto transductor que
montado en un catéter produce señales de 360 grados en forma transversal de los vasos
sanguíneos. Esto permite aplicaciones de diagnóstico y terapéuticas.
Los sistemas cardiovasculares proveen de escaneo bidimensional (2D) de tejidos blandos y
estructuras en movimiento dependiendo de los transductores y de los paquetes, será la aplicación
para: estudios abdominales, gineco-obstétricos, urológicos, partes pequeñas, cardíacas, entre
otros.

Estos sistemas son utilizados frecuentemente en consultorios médicos, gabinetes pequeños de


radiología y en consulta externa de algunas instituciones de salud. También es utilizado para
escanear a pacientes en su cama cuando resulta complicado transportarlos hasta la sala de
Imagen.

14
Sin embargo, existen también los sistemas tridimensionales 3D y en Cuarta Dimensión 4D cuya
tecnología, utiliza ondas de sonido de alta frecuencia para obtener imágenes anatómicas en 2D y
libres de rayos X. La tecnología de 3D añade a estas imágenes, ya valiosas de por sí, la
profundidad, proporcionando una información mucho más detallada. En 4D se avanza un paso
más al añadir el movimiento a la imagen fija que aparece en 3D.

2.4 Avances tecnológicos

iViz
La FDA otorgó la autorización a FUJIFILM SonoSite para llevar al mercado su sistema de ultrasonido
compacto iViz que puede caber en el bolsillo de un uniforme y llevarse por la clínica durante todo el
día.

El dispositivo está diseñado para exámenes abdominales, cardíacos, pulmonares y obstétricos, y


tiene un transductor de 5,1 MHz que puede penetrar hasta unos 32 cm.

La pantalla es una pantalla de alto brillo de 7 ″ y la computadora tiene conectividad inalámbrica Wifi
y Bluetooth, además de un puerto HDMI para ver en pantallas más grandes, USB y conectividad a
EMR y otros sistemas en línea.

El dispositivo recibió la aprobación regulatoria europea en septiembre de 2015

• SonoSite iViz combina DirectClear Tecnología, procesamiento avanzado de imágenes (SonoHD3)


y una pantalla de alta resolución para proporcionar una calidad de imagen comparable a los sistemas
convencionales.
• Es un equipo construido a partir de cero. El SonoSite iViz se ha fabricado con aluminio de los
aviones con bordes biselados que protegen la pantalla y el dispositivo de entrada. Todos los sistemas
y transductores son de 1m a prueba de gota.
• Transmisión HIPAA y datos cifrados – emisores, compartir y archivar todos los datos cumple con
HIPAA y las normas legales. Sin acceso no autorizado a los datos del paciente desde un PC a través
de USB.
• 24 horas de servicio y soporte – si algo le pasa a su dispositivo, vamos a organizar un reemplazo
dentro de las 24 horas.
• Una interfaz de usuario Handed – Ser verdaderamente «móvil» con la capacidad de controlar su
profundidad, la ganancia, el color, todas con una sola mano. Perfecta cuando ‘sobre la marcha’ o en
el interior de un vehículo en movimiento. El sistema también viene con un soporte para el montaje
en mesa.

15
Butterfly iQ
Este escáner de ultrasonidos (ecógrafo) pequeño y de bajo costo, ayudará a que las ecografías sean
tan simples y ubicuas como los controles de presión arterial o de temperatura corporal en los
hospitales, allanando el camino para que todos los profesionales de la salud tengan una ventana al
cuerpo humano, según el Instituto de Tecnología de Massachusetts (MIT) en EU.
Este dispositivo personal de mano, denominado Butterfly iQ, ha sido desarrollado por el
doctor Jonathan M. Rothberg, profesor de Genética en la Universidad de Yale (New Haven,
Connecticut), y por Nevada Sánchez, ingeniero eléctrico y de software del MIT, cofundadores de la
firma fabricante Butterfly Network (BN).
Rothberg es reconocido por haber inventado el sistema ‘Next-Gen’ para secuenciar, es decir conocer
el orden exacto, de los millones de componentes del ADN o código genético humano, a alta
velocidad mediante tecnología digital, logrando que el acceso a la información genómica sea más
fácil, rápida y económica para los investigadores.
En 2011el doctor Rothberg reunió a un equipo de científicos e ingenieros que consiguió desarrollar
un sistema para que las imágenes médicas de ultrasonidos sean accesibles para todos los pacientes
y todos los profesionales de la salud en cualquier parte del mundo.
En 2017 la Administración de Alimentos y Medicamentos (FDA) estadounidense aprobó el Butterfly
iQ para 13 aplicaciones clínicas, la más amplia para una sola sonda de ultrasonido, lo que lo
convierte en un dispositivo de diagnóstico por imágenes para el cuerpo entero, según BN.
La FDA aprobó sus aplicaciones urológica, abdominal, fetal, cardiovascular, ginecológica y
musculoesquelética, entre otras.
Rothberg, con la colaboración de Sánchez y otros investigadores del MIT, consiguieron integrar en
un solo chip 9,000 elementos o ‘canales’ basados en materiales semiconductores que funcionan
como transductores de cristal, y permiten generar imágenes de ultrasonido en 3D, con la ayuda de
la electrónica, la computación ‘en La Nube’ y la Inteligencia Artificial (IA), según el MIT.

16
TOMOGRAFIA
COMPUTARIZADA

17
3.2 Antecedentes históricos
El desarrollo de esta tecnología se lo debemos a los ingenieros Allan Cormack y
Godfrey Hounsfield (quienes recibieron el premio Nobel de Fisiología y Medicina en
1979), así la división médica de la compañía EMI (conocida también por haber
lanzado a los Beatles) donde se desarrolló el primer prototipo.

Los primeros resultados clínicos se publicaron en la primavera europea de 1972,


sorprendiendo a la comunidad médica. Procesos patológicos que previamente solo
podían demostrarse, en forma indirecta, eran ahora demostrados en forma directa.
Pocos descubrimientos médicos han recibido una aceptación tan inmediata y
entusiasmaron tanto como la tomografía computada revolucionando el trabajo
médico en el mundo entero.

Los cinco primeros equipos fabricados fueron instalados en el Reino Unido y


Estados Unidos. Luego se sucedieron rápidamente nuevas generaciones de ellos
con notables avances, que expandieron sus aplicaciones, permitiendo no sólo el
estudio del cráneo y cerebro, sino también del resto del cuerpo.

El primer tomógrafo comercial fue introducido utilizaba un haz lineal con un solo
detector y un mecanismo de traslación/rotación, la adquisición de una sola imagen
tardaba 4.5 minutos, por lo que inicialmente se utilizaba solamente para visualizar
partes no móviles del cuerpo como el cráneo.
Durante la siguiente década y media se realizaron mejoras técnicas importantes que
resultaron en disminuir el tiempo de adquisición lo que permitió explorar todo el
cuerpo además del cráneo.
En 1989 se desarrolló la TC helicoidal, logrando el movimiento continuo del tubo y
de la mesa a una velocidad constante. Esta técnica mejoro drásticamente la
velocidad de adquisición permitiendo adquirir estudios de angiotomografías de
mayor calidad, además de disminuir artificios de movimiento.
El siguiente paso en el crecimiento de esta tecnología fue el desarrollo de la
tecnología multidetector, que incorpora múltiples hileras de detectores, esto permite
la adquisición de múltiples cortes por cada rotación del tubo, la cual dura menos de
1 segundo. En 1991 se desarrolló la TC de dos detectores y en 1998 apareció la TC
de 4 detectores. Actualmente hay equipos de hasta 256 detectores. La principal
ventaja de estos equipos es adquirir estudios angiográficos avanzados como
angiotomografía coronaria y generar imágenes submilimétricas que con
reconstrucciones avanzadas se pueden realizar estudios de colonoscopia o
broncospia virtual.

18
3.2 Principios de funcionamiento
La tomografía computarizada se fundamenta en el desarrollo de Hounsfield, quien
unió sensores o detectores de rayos X a una computadora y desarrolló una técnica
matemática llamada reconstrucción algebraica a fin obtener imágenes de la
información transmitida por los sensores de rayos X.
El equipo cuenta con una fuente de rayos X, la cual hace incidir la radiación en forma
de abanico sobre una delgada sección del cuerpo; basándose en que las diferentes
estructuras corporales presentan diferentes niveles de absorción de radiación, la
resolución de sensores o detectores capta estos diferentes niveles de absorción y
a partir de ahí la computadora obtiene o reconstruye una imagen basada en la
intensidad de radiación detectada la cual varía de acuerdo al patrón de atenuación.
A cada una de estas imágenes se le llama corte.

19
3.3 Panorama actual
Las diferentes tipos de tomógrafos están relacionados con los diferentes desarrollos
tecnológicos a lo largo del tiempo, a los cuales se les conoce como generaciones.
La primera generación de tomógrafos estaba integrada por un haz de rayos X
finamente colimados y un único detector; los cuales se trasladaban a lo largo del
paciente y rotaban entre cada translación sucesiva. Requerían al menos de 5
minutos para completar el rastreo.
La segunda generación se fundamentó también en la rotación y translación, pero
incorporaban un detector múltiple. Sin embargo, presentaba problemas con la alta
radiación dispersa. Mejoraron el tiempo requerido (20 segundos o más) para el
rastreo o escaneo gracias al arreglo de los 5 a 30 detectores que incorporaban.
La tercera generación mejoró aún más el tiempo requerido para el rastreo (1
segundo) gracias a que el tubo de rayos X y el arreglo de detectores rotaban
concéntricamente alrededor del paciente. A diferencia de la segunda generación, el
arreglo de detectores es curvo e incorpora un mayor número de detectores.
(Tomografía helicoidal)
La cuarta generación tiene una configuración rotatoria para el tubo de rayos X y
estacionaria para el arreglo de detectores, que son alrededor de 8,000 y se
encuentran circunscritos a un círculo. Los detectores están arreglados en una matriz
o retícula, de manera que pueden capturar dos o más cortes en cada vuelta del
emisor. El tiempo de rastreo también es de un segundo y pueden variar el ancho de
cada corte.
En particular la dosis de radiación al paciente se incrementa ligeramente y el costo
es también superior debido al gran número de detectores y la electrónica asociada
a los mismos. (Tomografía de cortes o multicortes)
La quinta generación de tomógrafos promete incorporar mejoras en la calidad de
imagen, así como en la disminución de la dosis de radiación al paciente. Algunos
adelantos se enfocan a nuevos movimientos del tubo de rayos X o el arreglo de
detectores, o ambos. Los incrementos de velocidad en la adquisición de las
imágenes han hecho posible el cine en tomografía (muy útil por ejemplo en
aplicaciones cardiológicas). Los diferentes adelantos en software hacen posible la
navegación virtual dentro de las diferentes estructuras o la visualización específica
de determinados órganos.

20
3.4 Avances tecnológicos
BodyTom
El BodyTom es el último desarrollo de la línea de tomografía computarizada portátil
de NeuroLogica. Es un CT portátil, de cuerpo entero, de 32 cortes que cuenta con
un impresionante pórtico de 85 cm y un campo de visión de 60 cm. El BodyTom®
alimentado por batería se puede transportar de habitación en habitación y es
compatible con PACS, navegación quirúrgica, historias clínicas electrónicas y
sistemas de planificación. Sus capacidades únicas proporcionan imágenes por TAC
de alta calidad dondequiera que se necesiten, incluyendo la clínica, la UCI, el
quirófano y el Departamento de Emergencias y Traumatología.
La combinación de tiempo de escaneo rápido, configuraciones flexibles y
visualización inmediata de imágenes hace del BodyTom una herramienta valiosa
para cualquier instalación que necesite imágenes por TAC en tiempo real versátiles.
Excelente calidad de imagen 3D,
32 corte, 32 Imágenes por segundo 85cm Pórtico, 60cm FOV, 4cm Apertura
1.25mm, 2.5mm, 5.0mm, 10mm Grosor del corte Resolución de imagen de 512 x
512 Longitud máxima de escaneo de 2 metros
Capacidades completas
Axial
Helicoidal
Dinámico
Portabilidad completa Sistema de accionamiento integrado Blindaje interno de
plomo Funciona con pilas Se conecta a una toma de pared estándar Fácil
integración

21
Resonancia
magnética

22
4.1 Antecedentes históricos

Si G y g son funciones continuamente diferenciables y rápidamente convergentes a


cero, entonces se llama transformada de Fourier a:

Esta expresión que nos muestra cómo una función continua se puede expresar
como la suma infinita (integral) de funciones trigonométricas basadas en la ecuación
de Euler: eie = cos θ + isen θ, es una expresión fundamental en el corazón de buena
parte de la tecnología de hoy. Se encuentra originada en el extenso y original trabajo
del matemático francés Jean Baptiste Joseph Fourier (1768-1830). Fourier era hijo
de un sastre y, educado por los benedictinos, fue ingeniero y matemático. Ejerció
una cátedra militar de matemáticas. Acompañó a Napoleón en su expedición
oriental de 1798 y fue nombrado gobernador del Bajo Egipto. De regreso en Francia
en 1801, inició sus estudios sobre la propagación del calor que condujeron a la
publicación de su obra cumbre en 1822: "Théorie analytique de la chaleur". En esta
obra, Fourier estudió la ecuación diferencial del flujo de calor y, como parte de ello,
intentó demostrar que cualquier función diferenciable puede ser expandida en una
serie trigonométrica. Trabajos posteriores de los matemáticos Dirichet, Riemann,
Lebesgue, Ardí, Littlewood, Wiener, Frobenius, Selberg, Weil, Weyl y Radon con su
transformada (de Radon o de rayos X) han desarrollado y completado la teoría. Este
paso, aparentemente irrelevante para la medicina en su época, es esencial tanto en
la tomografía computada como en la resonancia magnética médica de hoy, como
podremos ver a continuación

Un poco antes que Fourier, en 1820, Hans Christian Oersted (1777-1851) químico
y físico danés, haciendo una demostración a sus alumnos, adjuntó una pila eléctrica
a un cable conductor que se encontraba cerca de una brújula observando que la
aguja se movía en dirección al cable, descubriendo la relación entre la electricidad
y magnetismo. Este último fenómeno ya era conocido por las civilizaciones del Asia
Menor donde, en una región llamada Magnesia, se reportaban algunas rocas que
se atraían entre sí. Se las llamó magnets (imanes) aludiendo al lugar de su
descubrimiento. Andre Marie Ampere (1775-1836) profesor de física y química en
el Instituto de Bourg, y después profesor de matemáticas en la Escuela Politécnica
de París, al tomar conocimiento del descubrimiento de Oersted, elaboró una
completa teoría sobre el fenómeno que hemos mencionado. En ésta, formuló una

23
ley sobre el electromagnetismo (ley de Ampére) en la cual se describe
matemáticamente la fuerza magnética interac-tuando entre dos corrientes
eléctricas. También Michael Faraday (1791-1867), un químico y físico
prácticamente autodidacta, estudió las leyes del magnetismo y logró en 1831 inducir
electricidad en un conductor haciendo pasar corriente por un conductor cercano,
fenómeno conocido como inducción electromagnética, mostrando además cómo un
imán podía inducir corriente en un conductor. A estos notables descubrimientos que
consolidaron al electromagnetismo como una rama de la física, hay que agregar los
nombres de aquellos que dieron vida a la electricidad y el electromagnetismo
durante los siglos XVIII y XIX. Entre ellos destacan hombres como Benjamín
Franklin (1706-1790) con sus investigaciones primigenias de electricidad; Charles
Coulomb (1736-1806) con el estudio de las fuerzas electrostáticas; Alessandro Volta
(1745-1827) con su invención de la batería; Luigi Galvani (1737-1798) con sus
estudios de la relación entre actividad muscular y electricidad; Thomas Edison
(1847-1931) con sus avances hacia el tendido eléctrico y la invención del bulbo
eléctrico; Georg S. Ohm (1787-1854) con sus estudios de la resistencia eléctrica;
G.R. Kirchhoff (1824-1887) con sus leyes de conducción en los circuitos; H.K.
Onnes (1853-1926) con el descubrimiento de la superconducción; Nikola Tesla
(1856-1943) con sus trabajos en ondas electromagnéticas; Edwin.H. Hall (1855-
1938) con sus experimentos de campo eléctrico; Heinrich Hertz (1857-1894) y
James C. Maxwell (1831-1879) y sus trabajos en ondas electromagnéticas; Joseph
Henry (1797-1878) con sus trabajos en inducción magnética; Pierre E Weiss con
sus trabajos en ferromagnetismo; Heinrich Lenz (1804-1865) con sus trabajos de
inducción electromagnética. Todos ellos contribuyeron al desarrollo de la tecnología
que hoy hace posible la aplicación de la resonancia magnética en medicina.

4.2 Principios de funcionamiento

24
3.3 Panorama actual

Campo magnético menor a 1.5T

Campo magnético de 1.5T

25
Campo magnético de 3T

Campo magnético mayor de 3T

3.4 Avances tecnológicos

Resonancia magnética 3 Teslas

La resonancia magnética de 1,5 teslas fue evolucionando y aplicándose a nuevos


fines, hasta que surgió un equipo que doblaba su potencia. Hablamos de
la resonancia magnética 3 Teslas, que emplea una intensidad de campo de 3 teslas
y que fue concebida para su uso específico en neurología.
En el caso específico del estudio del cerebro y la médula espinal, es donde
la resonancia magnética de 3 teslas tiene una mayor utilidad, ya que es capaz de
analizar mediante la observación, el funcionamiento del cerebro en tiempo real. Así,
con esta tecnología, es posible detectar las zonas de activación neuronal en el
mismo instante en el que estas se producen.
Además, permite dibujar un mapa de las áreas cerebrales que se activan al ejecutar
ciertas acciones, como mover una mano, escuchar, hablar, ver, leer un texto, etc.
Cuando un paciente realiza una tarea motora, las neuronas que están encargadas
de dar esa orden consumen más oxígeno en la corteza cerebral comparado con el
resto que no realizan ninguna actividad. De esta forma, con el mapa funcional del
cerebro, un cirujano es capaz de respetar zonas que se encargan de mover alguna
extremidad, por ejemplo. Esto disminuye la morbilidad durante una intervención
quirúrgica.
Otra de las funciones que permite, es ver el trayecto de las principales vías de
conexión nerviosa y estudiar su patología antes de que lo que esté alterado sea
visible con otras técnicas más convencionales.

26
Por último, la resonancia magnética tres teslas, además de ser útil en el diagnóstico
de tumores cerebrales, también puede emplearse en la realización de angiografías
cerebrales, pues es capaz de detectar pequeños aneurismas cerebrales, estudiar
las malformaciones vasculares y, en el caso de la epilepsia, detectar lesiones
corticales de tamaño muy reducido.

Imágenes obtenidas a través de una resonancia magnética de 3 Teslas.

27
Métodos invasivos
para la medición de
los signos vitales

28
5.1 Antecedentes históricos
El catéter de la arteria pulmonar (CAP) ha constituido una herramienta fundamental
para la monitorización hemodinámica en las unidades de cuidados intensivos (UCI)
durante los últimos 40 años. Durante este período de tiempo, el CAP ha sido
ampliamente usado en pacientes críticos para el diagnóstico y como guía del
tratamiento, ayudando a los clínicos a entender la fisiopatología de muchos
procesos hemodinámicos. Sin embargo, en los últimos años la utilidad del CAP ha
sido sometida a un intenso debate, debido fundamental- mente a la publicación de
trabajos en los que su utilización no se asociaba a un beneficio en la supervivencia.
De hecho, en varios de estos estudios su uso se asociaba a mayor mortalidad.
Paralelamente, los avances tecnológicos han permitido el desarrollo de nuevas
técnicas menos invasivas para la monitorización cardiovascular, reforzando la idea
de que el uso sistemático del CAP podía haber llegado a su fin. A pesar de la
controversia creada, no cabe duda de que mediante el CAP se pueden obtener
variables hemodinámi- cas únicas, valiosas y útiles en la guía de la reanimación del
paciente en estado crítico.
A lo largo de los últimos años se han estudiado nuevos métodos que han llegado a
reemplazar el uso del CAP para la determinación del gasto cardíaco (GC). Estas
nuevas tecnologías varían ampliamente entre ellas, de muy invasivas a menos
invasivas y hasta no invasivas, de intermitentes a continuas, y cada una de ellas
con sus principios básicos, métodos y costes. Algunas proporcionan índices
dinámicos de respuesta a los fluidos, que están siendo considerados como
mejores predictores de respuesta al aporte de volumen, otras permiten valorar
variables de precarga volumétrica y otras aportan medidas continuas de la
saturación venosa central. Todas estas variables, junto con el GC, están destinadas
a mejorar la monitorización hemo- dinámica de los pacientes críticos10. Hasta el
momento, ninguna de ellas cumple todas las características necesarias para ser
considerada como excelente: no invasiva, continua, fiable, reproducible, cómoda
tanto para el paciente como para el profesional, exacta y con los mínimos efectos
secundarios11,12. Por lo tanto, la utilización de cada una de ellas va a depender
fundamentalmente de su disponibilidad y de los conocimientos o aptitudes del
profesional.
Todas estas técnicas han sido valoradas y validadas mediante la comparación de
sus resultados con el considerado gold standard, que aún a día de hoy sigue
siendo la termodilución intermitente de la arteria pulmonar.
Esta puesta al día pretende dar a los clínicos una visión de los parámetros
hemodinámicos que aportan los distintos métodos disponibles, considerando que
es fundamental comprender tanto su potencial utilidad clínica como sus
limitaciones para un uso eficaz de la información que proporcionan.

29
Catéter de arteria pulmonar o de Swan-Ganz
Introducido en 1970 por J.C. Swan y W. Ganz. Se canaliza a través de una vena de
gran calibre que a través del corazón derecho se introduce en la arteria pulmonar y
deja alojado su extremo distal en una ramificación de esta arteria. El CAP nos
proporciona información sobre 3 categorías de variables diferentes: medidas de flujo
sanguíneo (GC), presiones intravasculares intratorácicas y parámetros oximétricos.

5.2 Principios de funcionamiento

Variables Hemodinámicas y su Interpretación

A- Precarga: Es la carga o volumen que distiende el ventrículo izquierdo antes de


la contracción o sístole. La precarga está determinada por el volumen de sangre al
final del período de llenado ventricular. Su medición se realiza con el catéter de
Swan Ganz y corresponde a la presión de oclusión de la Arteria Pulmonar. La
presión venosa central y la presión de aurícula derecha expresan el retorno de
sangre al lado derecho del corazón.

B- Postcarga: Es la resistencia a la eyección ventricular. En el lado derecho se


expresa como la Resistencia Vascular Pulmonar (RVP) y en el lado izquierdo como
la Resistencia Vascular Periférica (RVS). Mientras mayor sea la postcarga menor
será el débito cardíaco, de igual manera mayor será la presión de aurícula derecha.
Algunas condiciones que disminuyen la postcarga son la vasodilatación por sepsis,
hipertermia, hipotensión y drogas vasodilatadoras. Mientras que está aumentada
cuando hay vasoconstricción, hipovolemia, hipotermia, hipertensión, estenosis
aórtica entre otros.

Débito o gasto cardíaco: Es el producto de la frecuencia cardíaca (FC) por el


volumen sistólico de eyección (VS) en litros por minuto.

DC = FC x VS

A menos que exista un shunt intracardiaco, el débito cardíaco derecho e izquierdo


es básicamente el mismo. Para realizar la medición del débito es necesario insertar
un catéter de Swan Ganz (ver más adelante) La decisión de medir el DC está dada
por la sospecha de un déficit en la oxigenación tisular por alteraciones en la función
cardíaca. Es importante recordar que los cambios en el DC a menudo son un
síntoma del problema más que el problema mismo.

30
Presión Arterial Directa (línea arterial)

La instalación de una línea arterial está indicada como ya se mencionó en estados


donde la monitorización invasiva es poco precisa. Además, cumple con el objetivo
de una monitorización continua y permite obtener muestras de sangre arterial
repetida sin recurrir a múltiples punciones. Según algunos autores debería
instalarse una línea arterial en todo paciente al que se le vayan a analizar los gases
arteriales > de 4 veces en 24 horas, disminuyendo el riesgo de complicaciones. Las
arterias de elección son la radial, axilar o femoral. Algunos autores promueven la
elección de arterias centrales como la axilar y femoral en algunas condiciones
circulatorias de intensa vasoconstricción. Esto se debería a la intensa constricción
de las arterias musculares que generaría gradientes de hasta 50 mmHg entre la
arteria radial y las arterias axilar y femoral. Entre las complicaciones observadas
con la instalación de LA se describen: hematomas, trombosis arterial, isquemia
distal, pseudoaneurismas arteriales, fístulas A-V e infección. La mayor parte de
estas complicaciones pueden obviarse con la selección de la arteria a puncionarse,
la técnica apropiada y el manejo posterior de enfermería. El Gasto Cardíaco es
directamente proporcional al área bajo la curva de presión. Las oscilaciones
negativas de la curva, particularmente en pacientes ventilados con presión positiva,
son un buen indicador del estado del déficit de volumen intravascular.

Presión Venosa Central

En pacientes en los que se sospecha una pérdida de volumen la monitorización de


la PVC es una guía útil para la reposición de volumen. La PVC por sí sola no es un
indicador de hipovolemia, pudiendo estar normal o incluso elevada en pacientes con
mala función ventricular izquierda. La PVC por lo tanto no refleja el estado de
volumen circulante, más bien indica la relación entre el volumen que ingresa al
corazón y la efectividad con que este lo eyecta. Aunque la medición aislada puede
no tener ningún valor, las mediciones seriadas en pacientes con buena función
ventricular izquierda pueden guiar la reposición de volumen. De utilidad diagnóstica
en situaciones clínicas como el neumotórax a tensión y el tamponamiento cardíaco
el signo de Kussmaul es muy evidente en el registro de la curva.

La colocación de catéteres venosos centrales no solamente cumple con una función


de monitorización (Presión Venosa Central) si no además nos permite según el
diámetro y la longitud del mismo, aportar volumen, administrar drogas irritativas ya
sea por su osmolaridad o ph, alimentación parenteral, hemodiálisis o bien la
inserción de catéteres por su lumen como el catéter de Swan Ganz o marcapasos
endocavitarios. Las vías de elección son las yugulares internas y externas, el
abordaje subclavicular de la subclavia y las venas femorales. La punta del catéter

31
debe quedar alojada en la vena cava superior, confirmándose su ubicación
mediante una RX de tórax. Entre las complicaciones que pueden producirse está la
punción arterial y la formación de hematomas que en el caso del cuello pueden
producir obstrucción de vía aérea. La formación de hematomas por desgarro de la
vena subclavia o punción de la arteria, como es obvio no son compresibles,
formándose hematomas extrapleurales visibles en la RX de Tórax de control. El
neumotórax es la complicación más frecuente aún en manos experimentadas y se
produce solamente en las punciones yugulares internas y subclavia. El abordaje
izquierdo de la yugular interna y subclavia pueden lesionar el conducto torácico
produciendo un Quilotórax. Por último, la infección del catéter es frecuente cuando
no se respeta la técnica estéril.

5.3 Panorama actual

Catéter de arteria pulmonar o de Swan-Ganz


Introducido en 1970 por J.C. Swan y W. Ganz. Se canaliza a través de una vena de
gran calibre que a través del corazón derecho se introduce en la arteria pulmonar y
deja alojado su extremo distal en una ramificación de esta arteria. El CAP nos
proporciona información sobre 3 categorías de variables diferentes: medidas de flujo
sanguíneo (GC), presiones intravasculares intratorácicas y parámetros oximétricos.
Mediciones del flujo sanguíneo
La medición del GC mediante este catéter se basa en la termodilución
transcardíaca. Tras inyectar un volumen de líquido con una temperatura inferior a la
sanguínea, el termistor detecta los cambios de temperatura a lo largo del tiempo,
registrándose en forma de curva. El área bajo la curva registrada es el volumen
minuto. Los detalles sobre la medición del GC, así como sus limitaciones técnicas
(insuficiencia tricuspídea, etc.), se han desarrollado ampliamente en entregas
previas de la Puesta al día en monitorización hemodinámica.
Medición de presiones intravasculares intratorácicas
El CAP, debidamente posicionado, permite obtener presiones de 3 localizaciones
diferentes: la aurícula derecha (presión venosa central, o PVC), la arteria pulmonar
(PAP) y las venas pulmonares (también llamada presión de cuña, de oclusión o
PAPO). Originariamente, el CAP se desarrolló para permitir la medición de la PAPO,
que corresponde a la presión venosa pulmonar distal al lecho capilar pulmonar, y
que representa una estimación aproximada de la presión de la aurícula izquierda
(PAI). De hecho, aún hoy, la PAPO sigue siendo la mejor estimación a pie de cama
de la presión venosa pulmonar de cara a evaluar tanto las resistencias pulmonares
como la precarga del ventrículo izquierdo. Para este uso, la PAPO no tiene una

32
alternativa práctica. Recientemente, se han propuesto una serie de mediciones del
flujo venoso pulmonar por ecocardiografía Doppler para la estimación de la PAPO14,
aunque las variables obtenidas mediante Doppler derivadas del flujo transmitral
(TMF) y venoso pulmonar (PVF) son poco exactas, consumen tiempo, no se pueden
obtener en todos los pacientes, y requieren un alto grado de experiencia, más allá
de los principios básicos de ecocardiografía15. Pese a ello, en los últimos años se
han desarrollado nuevos parámetros obtenidos con Doppler tisular que añaden más
exactitud a la técnica. De todas formas, la utilidad de la PAPO en el paciente crítico
necesita ser redefinida. Se ha demostrado, de forma reiterada y consistente, que la
PAPO tiene bajo valor predictivo en la evaluación de la respuesta al volumen. Por
lo cual, no se recomienda que el clínico utilice los valores absolutos de PAPO a pie
de cama para predecir la respuesta a la administración de líquidos. En este aspecto,
las variables obtenidas del análisis de la curva de presión arterial durante la
ventilación con presión positiva, como la variación de la presión de pulso o la
variación del volumen sistólico, predicen la respuesta a volumen de forma mucho
más fiable16. Sin embrago, las mediciones de la PAPO siguen siendo de gran ayuda
en el diagnóstico del origen de la hipertensión pulmonar, y en la diferenciación entre
edema pulmonar primario (no cardiogénico) y secundario (cardiogénico).
Saturación venosa mixta y otras variables oximétricas
La saturación de oxígeno a nivel de arteria pulmonar distal o saturación venosa
mezclada o mixta (SvO2) es probablemente el mejor indicador aislado de la
adecuación del transporte global de oxígeno (DO2), puesto que representa la
cantidad de oxígeno que queda en la circulación sistémica después de su paso por
los tejidos. Se ha propuesto el uso de la saturación venosa central de O2 (SvcO2)
como un método sencillo, en sustitución de la SvO2, para evaluar la idoneidad de la
perfusión global en varios escenarios clínicos. Sin embargo, el hecho de que la
SvcO2 sea reflejo de la SvO2ha sido muy discutido, especialmente en el paciente
crítico. Además, con los valores obtenidos de GC y SvO2, junto con los valores
arteriales de oxigenación, se puede calcular el transporte y el consumo global de
oxígeno (DO2 y VO2, respectivamente), así como el shunt oximétrico pulmonar y el
cálculo del gradiente oximétrico en la rotura aguda del tabique interventricular.
Ventajas e inconvenientes
El CAP parece ideal para identificar y monitorizar los diferentes patrones de shock
circulatorio (hipovolémico, cardiogénico, obstructivo y distributivo), con la obtención
de los componentes principales de cualquier patrón: GC, PAPO y oximetría. Usando
estas 3 medidas, asociadas a medidas directas de presión arterial media, permiten
definir la etiología del shock, así como monitorizar la respuesta al tratamiento.
Basado en estos argumentos, el CAP ha sido una de las piedras angulares para el
manejo del paciente en nuestras UCI, utilizándose como sistema sistemático de
33
monitorización. Sin embargo, sus datos han sido ignorados o simplemente usados
para definir la estabilidad del paciente. Este uso poco específico e indiscriminado
podría ser responsable, al menos en parte, de la falta de eficacia, en cuanto a la
supervivencia, apuntada en diferentes trabajos.
Otro factor contribuyente lo hallamos en la comprobación repetida del escaso
conocimiento de los clínicos en la interpretación de la información obtenida
mediante el CAP, como en el análisis de la morfología de la onda de PAPO y la falta
de correcta comprensión de las variables fisiológicas obtenidas para su traslado al
contexto clínico. Obviamente, ningún sistema de monitorización hemodinámica será
capaz de mejorar el pronóstico del paciente, excepto si la información obtenida
mediante dicho sistema se asocia a la elección de un tratamiento que sí pueda
mejorar la supervivencia del paciente.
Frente a lo que se acaba de exponer, varios estudios han demostrado que el uso
del CAP en el tratamiento dirigido por objetivos mejora el pronóstico de los pacientes
tratados. Cuando las estrategias de resucitación han sido dirigidas por variables
hemodinámicas derivadas del CAP, como el DO2, el índice cardíaco (IC), o la SvO2,
se han conseguido reducciones significativas en la estancia hospitalaria, así como
una mayor supervivencia. Por lo tanto, parece que el CAP es, de hecho, una
herramienta útil, capaz de mejorar la supervivencia cuando se asocia a un algoritmo
de tratamiento con objetivos fisiológicos específicos y se utiliza en los pacientes
adecuados. No ha mostrado beneficio cuando se ha utilizado en poblaciones de
bajo riesgo quirúrgico, o cuando se ha utilizado para guiar la reanimación en fases
tardías de la enfermedad, una vez que el daño orgánico ya se ha desarrollado25.
Tampoco ha demostrado efecto beneficioso, cuando se han comparado estrategias
de manejo del aporte de volumen dirigidas por PAPO frente a PVC, como en el
reciente estudio FACCT, puesto que ninguna de las 2 variables usadas son medidas
fiables de precarga o de respuesta a volumen.
Además del debate en lo referente al pronóstico de los pacientes, se ha hecho
hincapié en las complicaciones potenciales del CAP para reforzar los argumentos
en contra de su uso. Evidentemente, como cualquier técnica invasiva, no está
exenta de riesgos y complicaciones. Numerosos estudios han demostrado que las
complicaciones locales derivadas de la inserción del PAC no difieren de las
derivadas de la inserción de cualquier otro catéter venoso central. Sin embargo, sí
se ha asociado a un incremento en el riesgo de infecciones (incidencia de
bacteriemia del 0,7-1,3%) y a fenómenos trombóticos durante su uso prolongado (>
48 h), así como a un aumento del riesgo de arritmias durante su inserción (aunque
con mínima incidencia de arritmias graves, y sin repercusión en el pronóstico). De
todo esto se puede deducir que la asociación de CAP y mejoría o no del pronóstico
va a depender de cómo, cuándo, dónde y en qué tipo de pacientes se utilice.

34
5.4 Avances tecnológicos

Ultrasonido transtorácico o transesofágico


Estas dos técnicas, ampliamente utilizadas en Europa y Estados Unidos desde hace
más de dos décadas en diferentes escenarios, han demostrado ventajas como
herramienta de monitorización dinámica junto al paciente, en tiempo real y sin
irradiación. Por supuesto, no se pretende reemplazar el diagnóstico del experto
en ecocardiografía, pero sí ofrece al clínico una herramienta valiosa, que desde la
evaluación anatómica puede ayudar a orientar al diagnóstico sindromático
(hipovolemia, taponamiento cardiaco, evaluación global de la contractilidad),
pudiendo generar una conducta terapéutica temprana así como realizar medidas
hemodinámicas más objetivas.
Recomendaciones y guías de diferentes sociedades científicas han buscado unificar
conceptos y definiciones, así como también han querido establecer las condiciones
de entrenamiento óptimo, en pro de los pacientes y evitar generar análisis y
conductas erróneas por su uso. Algunos parámetros, como el análisis de los
cambios de la vena cava inferior durante el ciclo respiratorio, para predecir
respuesta a volumen, u otras más complejas con el Doppler, como la medición de
velocidades y la integral tiempo/velocidad (ITV) del flujo en el tracto de salida del
ventrículo izquierdo (VI), han demostrado también su valor en la predicción a retos
de volumen, o más útil aún en la medición del GC y otras medidas, como función
sistólica o diastólica del VI, función del ventrículo derecho, presiones de la arteria
pulmonar, etc. Se ha demostrado cómo la utilización del ultrasonido ha orientado el
manejo de líquidos, inotrópicos y conductas quirúrgicas, pero siempre se resalta la
importancia de lograr un entrenamiento óptimo, de acuerdo con las
recomendaciones actuales de las sociedades que lideran este entrenamiento.
Doppler esofágico
Esta sonda Doppler introducida por vía oral o nasal analiza la velocidad del flujo
sanguíneo de la aorta descendente, determina el volumen sistólico con el producto
de la distancia sistólica de la velocidad del flujo y el área del nivel de medición de la
aorta. Algunos inconvenientes descritos en relación con la inclinación de las ondas
de ultrasonido y el sentido del flujo sanguíneo han tratado de ser corregidos
mediante normogramas con datos biométricos del paciente

VPP no-invasivo

El VPP se promedia en diferentes periodos de movimiento. Estos dispositivos


automatizados utilizan un sensor de dedo conectado a un monitor dedicado que
cumple con los criterios simplificados necesarios a la cabecera del paciente.

35
Variación del volumen sistólico (VVS)

El VVS se introdujo como indicador de precarga dinámica que se calcula a partir de


los cambios porcentuales en el volumen sistólico (VS) durante el ciclo ventilatorio.
Muchos fabricantes han desarrollado monitores hemodinámicos que incluyen VVS
(monitorización Doppler esofágica además de los dispositivos descritos
anteriormente para VPP). El cálculo de VVS se basa en el porcentaje de cambio
entre los VS máximos y mínimos dividido entre el promedio del mínimo y el máximo
durante un periodo flotante; o en la diferencia entre VS máximos y mínimos dividida
entre el promedio del mínimo y máximo VS a lo largo de un ciclo respiratorio. Se
demostró que el VVS es un buen indicador de la capacidad de respuesta del líquido
en el quirófano y la UCI. En los Cuadros I y II se exponen las características
principales de los diferentes equipos y los valores considerados como normales en
la paciente obstétrica.

USCOM, Ltd, Sydney, Australia (UltrasoundCardiac Output): utiliza el ultrasonido


Doppler de onda continua con una sonda en la muesca supraesternal para obtener
integrales de tiempo de velocidad (VTI) de flujo sanguíneo transaórtico en el tracto
de salida del ventrículo izquierdo, emplea un algoritmo antropométrico que
correlaciona el diámetro del tracto de salida con la altura dada por la paciente,
USCOM® emplea las VTI para calcular el VS y por tanto el GC y produce un perfil
hemodinámico. Además calcula el área de superficie corporal (ASC) usando el peso
y la altura, USCOM® calcula la variable hemodinámica indexada corregida para
BSA, los parámetros examinados incluyen índice cardiaco (IC), índice de volumen
sistólico (IVS) y las resistencias vasculares sistémicas indexadas (RVSI).1,7 Puede
utilizarse USCOM® como una alternativa clínicamente aceptable a la
ecocardiografía en embarazo avanzado. Sus ventajas incluyen la facilidad con la
que puede obtenerse un perfil hemodinámico, en comparación con la
ecocardiografía convencional. Sin embargo, es un dispositivo operador
dependiente, potencialmente sujeto a la variación interobservador. La obtención de
un perfil hemodinámico utilizando USCOM requiere acceso a la muesca
suprasternal (y alguna extensión del cuello del sujeto), no es factible usarlo para la
evaluación hemodinámica continua, por ejemplo en el transoperatorio o intraparto. 7

Sistema Model Flow-Nexfin Clear Sight (antes Nexfin, Edwards Lifesciences,


Irvine, USA) y CNAP (CNAP [TM] Monitor 500, CN Systems Medizintechnik AG,
Graz, Austria): es capaz de medir la presión arterial de forma continua y
completamente no invasiva mediante un manguito inflable alrededor del índice y/o
del dedo medio. Después, pueden medirse los cambios en el diámetro mediante un
fotopletismógrafo infrarrojo integrado en el manguito del dedo, además el manguito
del dedo es capaz de mantener constante el diámetro de las arterias "sujetas"

36
aplicando de manera dinámica una contrapresión durante todo el ciclo cardiaco.
Esta tecnología mide de forma continua (latido a latido) la presión arterial y la PPV.
El GC se calcula mediante la monitorización continua de la presión arterial y el
análisis del contorno de la onda de pulso que se basa en el análisis del área de la
onda de presión sistólica y en el método Modelflow. El CG, el VS, las RVS y un
índice de contractilidad del VI se obtienen de manera continua. Tiene buena
correlación con la termodilución. Uno de los problemas con este dispositivo es que
en pacientes con hipoperfusión existe el riesgo de necrosis distal del dedo donde
se aplica el monitor.

37
Fuentes de consulta

González, G. y González- Pieri, M. (2017) History of Radiology. Rev. Cient. Esc.


Univ. Cienc. Salud 4(1): 45-48. Recuperado de:
http://www.bvs.hn/RCEUCS/pdf/RCEUCS4-1-2017-10.pdf
Camacho, J. (2017) SISTEMAS DE RAYOS X: AVANCES Y NOVEDADES.
[elhospital.com]. Recuperado de: http://www.elhospital.com/temas/Sistemas-de-
rayos-X,-avances-y-novedades+121971

Fernández, R. (2019) LOS RAYOS X ENTRAN EN UNA NUEVA ERA CON LA


APLICACIÓN DE LA NANOTECNOLOGÍA. [carestream.com]. Recuperado de:
https://www.carestream.com/blog/2019/01/22/tecnologia-de-nanotubos-de-
carbono-en-imagenes-medicas/
CENETEC, SALUD (2006) Guía Tecnológica No. 32 Rayos X, Sistema de
imaginologia. Recuperado de:
http://www.cenetec.salud.gob.mx/descargas/biomedica/guias_tecnologicas/18gt_ul
trasonido.pdf
CENETEC, SALUD (2005) Guía Tecnológica No. 18 Ultrasonido, Sistema de
imaginologia. Recuperado de:
http://www.cenetec.salud.gob.mx/descargas/biomedica/guias_tecnologicas/18gt_ul
trasonido.pdf
VANGUARDIA MX (2019) Un escáner de ultrasonidos portátil, que cabe en el
bolsillo, produce imágenes ecográficas de calidad clínica, se conecta a un teléfono
inteligente y permite que el diagnóstico sea accesible para muchos más
profesionales en todo el mundo. Recuperado de:
https://vanguardia.com.mx/articulo/con-butterfly-iq-ya-puedes-ver-tus-ecografias-
desde-tu-celular
Águila, M. Esquivel, L. y Rodríguez, C. (2019) Historia y desarrollo del ultrasonido
en la imagenología, Acta medica del centro 13(4): 604-606 Recuperado de:
https://www.medigraphic.com/pdfs/medicadelcentro/mec-2019/mec194o.pdf
CENETEC, SALUD (2004) Guía Tecnológica No. 6 Ultrasonido, Sistema de
imaginologia. Recuperado de:
http://www.cenetec.salud.gob.mx/descargas/biomedica/guias_tecnologicas/6gt_to
mografo.pdf
https://www.medicalexpo.es/prod/neurologica/product-81086-562113.html
Bosch O, Enrique. (2004). SIR GODFREY NEWBOLD HOUNSFIELD Y LA
TOMOGRAFIA COMPUTADA, SU CONTRIBUCION A LA MEDICINA

38
MODERNA. Revista chilena de radiología, 10(4), 183-
185. https://dx.doi.org/10.4067/S0717-93082004000400007
Canals, Mauricio. (2008). HISTORIA DE LA RESONANCIA MAGNÉTICA DE
FOURIER A LAUTERBUR Y MANSFIELD: EN CIENCIAS, NADIE SABE PARA
QUIEN TRABAJA. Revista chilena de radiología, 14(1), 39-
45. https://dx.doi.org/10.4067/S0717-93082008000100009
González M. (2009) AVANCES TECNOLOGICOS EN ESCANOGRAFIA Y
RESONANCIA [elhospital.com]. Recuperado de:
http://www.elhospital.com/temas/Avances-tecnologicos-en-escanografia-y-
resonancia+8072707
Pérez-Calatayud, Ángel Augusto, Linarte-Basilio, Mónica Elizabeth, Díaz de León
Ponce, Manuel, Carrillo Esper, Raúl, & Briones-Garduño, Jesús Carlos. (2017).
Monitoreo hemodinámico no invasivo y mínimamente invasivo en la paciente
obstétrica grave. Medicina crítica (Colegio Mexicano de Medicina Crítica), 31(5),
275-284. Recuperado en 18 de octubre de 2020, de
http://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S2448-
89092017000500275&lng=es&tlng=es.

39

También podría gustarte