Está en la página 1de 150

1

Índice

Página

Utilidad diagnóstica, clasificación de los TC y configuración de un TC ....................3

Adquisición de la imagen en tomográfica computada ......................................... 46

Métodos de reconstrucciones en tomografía computada .................................... 87

Estado actual de los avances en Tomografía Computada Multicorte ................... 102

Calidad de imagen en Tomografía Computada ................................................ 114

Reformaciones en tomografía computada ...................................................... 130

2
UTILIDAD DIAGNÓSTICA, CLASIFICACIÓN DE LOS TC Y
CONFIGURACIÓN DE UN TC
T.M. Rodrigo Pizarro Muñoz

Partamos de lo más básico o esencial, ¿por qué el nombre “Tomografía Computada”?


Desde el punto de vista etimológico, “Thomos” significa corte o sección, “Graphia”
significa gráfico o imagen, y “Computada” significa que necesita un computador para
procesar los datos. Por lo tanto, “Tomografía Computada” es la imagen bidimensional
de distintas secciones o cortes transversales de un cuerpo en estudio, y que requiere
de un computador que analice los datos y los procese para generar la imagen de ese
corte. En una definición más completa, vamos a decir que “Tomografía Computada” es
un proceso en el cual, a través de una pequeña sección transversal del cuerpo, se
generan múltiples proyecciones de Rayos x, que al ser analizados y procesados
computacionalmente, se logra reconstruir una imagen digital, que representa en forma
clara en la pantalla, a través de diversas tonalidades de gris, las diferencias entre los
tejidos que componen la sección corporal estudiada.

En sus comienzos, esta técnica de imagen se denominaba TAC (Tomografía Axial


Computada) porque solamente se podían obtener cortes axiales, es decir, cortes
perpendiculares al eje longitudinal del cuerpo, sin embargo, actualmente hablamos de
TC (Tomografía Computada) porque podemos obtener cortes en cualquier dirección del
espacio mediante reformaciones computacionales como se verá más adelante en el
curso.

Por lo tanto, si enumeramos las principales características de TC, de acuerdo a su


definición, son las siguientes:

1. Uso de Rayos X
2. Representa principalmente una sección Transversal del cuerpo en estudio.
3. Es “Computada”, es decir, requiere análisis computacional para procesar los
datos.
4. Es una imagen Digital.
5. Mediante distintas “Tonalidades de gris” se representan las diferencias entre los
tejidos.

Vamos a analizar cada una de ellas de forma particular, para generar una idea general
de esta técnica.

3
I- RAYOS X

Lo primero que debemos tener claro es que la TC utiliza Rayos X, que son los mismos
que descubrió Wilhelm Roentgen (fig. 1) en 1895, quien trabajando en su laboratorio
descubrió esta radiación ionizante a la que dio por nombre Rayos X, por desconocer su
naturaleza. Gracias a esto, Roentgen recibe el premio Nobel de Física en 1901.
También obtiene la primera radiografía de la mano de su esposa (fig. 2).

Fig. 1. Wilhelm Roentgen Fig.2. Primera radiografía

A partir de entonces, los Rayos x son utilizados en medicina, por su capacidad de


atravesar, en mayor o menor medida, los distintos órganos del cuerpo humano. Este
tipo de radiación ionizante se utiliza desde esos momentos para la realización de
Radiografías Convencionales. En este tipo de examen diagnóstico, el tubo de rayos x
se encuentra estático espacialmente y la radiación emitida atraviesa el cuerpo
atenuándose en su trayecto y generando determinada tonalidad de gris en la placa
radiográfica (fig.3).

4
Fig.3. Técnica de Radiografía Convencional

De esta manera, se logran obtener imágenes bidimensionales del cuerpo en que se


pueden distinguir diversas estructuras dependiendo de la zona estudiada. Sin
embargo, presenta algunas desventajas.

1. Alta dispersión del haz primario de Rx. Debido a que las áreas a radiografiar
generalmente son amplias, la cantidad de radiación dispersa representa el 50%
o más que los Rx absorbidos por la película radiográfica, incluso utilizando
grilla, capaz de remover altos niveles de dispersión. Esta radiación dispersa
disminuye el contraste del sujeto estudiado.
2. Superposición de estructuras. Debido a que la radiografía representa un
volumen tridimensional en una imagen de 2 dimensiones. Como consecuencia,
los tejidos que están por delante y por detrás de la estructura en estudio, son
superpuestos, lo que dificulta la visualización de tejidos blandos principalmente.
3. Pobre Resolución de bajo Contraste. Debido a lo anterior, la correcta
visualización de pequeñas diferencias de atenuación de los distintos tejidos, es
prácticamente, imposible de realizar. Por ejemplo, en una radiografía de cráneo
(fig.4) no se puede diferenciar sustancia gris de sustancia blanca, ni visualizar
núcleos de la base, ni ventrículos, etc. En una radiografía de abdomen, no se
puede diferenciar correctamente los límites del páncreas, bazo, intestinos, etc
(fig.5).

5
Fig.4. Radiografía lateral de cráneo Fig.5. Radiografía abdominal

4. Ineficiente absorción de Rx. Antes de la introducción de las pantallas


intensificadoras de tierras raras, la eficiencia de absorción de las películas-
pantallas de tungstenato de calcio era solamente de un 25%. Es decir, el 75%
del haz de Rx disponible, o sea, el 75% de la información, era desperdiciada.

Todos estos temas eran conocidos mucho antes del desarrollo de la TC, lo que llevó a
los investigadores a considerar mejoras. Por ejemplo, tanto la nitidez y el contraste
podrían mejorar si la radiación y la visualización de estructuras se limitara a cortes
seccionales individuales a través del cuerpo, lo que podría presentarse como imágenes
bidimensionales sin una significante superposición de estructuras.

II. SECCIÓN TRANSVERSAL

El objetivo de la TC es realizar cortes de una sección transversal del cuerpo


principalmente (es decir, perpendicular al eje longitudinal). Sin embargo, la idea,
obviamente, es no tener que seccionar ni cortar el objeto que estamos estudiando
(fig.6).

6
Fig.6. Cortes transversales de un cuerpo

Entonces, ¿cómo lograr este objetivo?

Bueno, el fundamento matemático en que se basa la Tomografía Computada fue


desarrollado por Johan Radón (fig.7), matemático Austriaco, que en 1917, desarrolla
una teoría que indica que toda estructura interna de un objeto puede determinarse si
se conoce el valor de las integrales de todas la infinitas proyecciones que pueden pasar
a través de él (fig.8).

Fig.7. Johan Radón Fig.8. Postulado de Radón

Radón indica que, si conocemos todos los valores integrales de las infinitas
proyecciones que pasan a través del objeto que estamos estudiando, podríamos
incluso reproducir la tridimensionalidad del objeto. Sin embargo, como este trabajo se
desarrolló en 1917, época en que la tecnología computacional era nula, Radón tenía
que hacer todos sus trabajos manualmente, por lo tanto, no pudo poner en práctica
esta teoría.

Por tanto, la TC llega a ser posible gracias al desarrollo de la moderna tecnología de


computadores de los años 60 y ahí aparece la tercera característica de la tomografía
computada, que es la necesidad de un computador para analizar una inmensa cantidad
de datos y generar la imagen.

7
III.- COMPUTADA

En estos años (década del 60) se demuestra también que, aunque con un número
finito de rectas nunca se podría reconstruir exactamente el interior del objeto
estudiado, si se toma un conjunto adecuado y suficiente de ellas, se lograría
reconstruir una imagen aproximada muy confiable de él.

Así en 1955, la computación se comienza a introducir en la radiología, principalmente


con cálculos rápidos y exactos de la distribución de dosis en el cuerpo humano, al ser
expuestos a radiación ionizante.

En estos trabajos destaca principalmente el físico sudafricano Allan Cormack (fig.9),


quien entre 1957 y 1963 desarrolló un método para calcular la distribución de la
absorción de la radiación en el cuerpo humano basado en mediciones de la
transmisión. Cormack, trabajaba haciendo planificaciones en el tratamientos de
radioterapia en un hospital de Sudáfrica, y en sus investigaciones se dio cuenta que
podía saber cuánta radiación absorbe el cuerpo humano en sus diferentes partes,
haciendo mediciones de la transmisión de la radiación. Gracias a esto, postuló que
debía ser posible desplegar incluso la más mínima diferencia de absorción (fig10).

Fig.9. Allan Cormack Fig.10.Postulado de Cormack

Sin embargo, no pudo poner en práctica su teoría.

Hasta que en 1972, se logra la implementación práctica y exitosa de este postulado,


por quien desde 1967 estuvo interesado en patrones y técnicas de construcción de
imágenes utilizando la computadora y a quien se le considera el padre de la
Tomografía computada: Godfrey Hounsfield (fig.11).

8
Fig.11. Godfrey Hounsfield

Hounsfield, en esa época, trabajaba para la empresa EMI (que es la misma que
conocemos hoy como la Compañía disquera), pero en aquellos tiempos tenía un
departamento de investigación para la cual trabajaba. Cabe destacar también, que
desarrolló su técnica de Tomografía computada, sin conocer los trabajos de Radón ni
Cormack.

Y, ¿cómo logro esto?

Bueno, el equipo de Tomografía Computada desarrollado por Hounsfield, fue creado


solamente para examinaciones de cráneo, el cual contaba con un tubo de rayos x y
solamente un detector (fig.12).

Fig.12. TC desarrollado por Hounsfield


Fig.13. Geometría TC de Hounsfield

9
Como se ve en la imagen de la derecha (fig.13), el tubo de rayos x está arriba y abajo,
estrechamente vinculado a éste, el detector (un único detector). Entonces, desde el
tubo de rayos x se emite radiación electromagnética que es captada por el detector.
Este haz de radiación tenía un tamaño de 3mm en el plano del corte y de 13mm de
ancho perpendicular al corte, es decir, a lo largo del eje del sujeto. Debido a la
angostura de este haz, de sólo 3mm, se le conoce como “Pencil Beam”.

Debido al tamaño del haz de radiación, para abarcar la estructura completa, es decir,
para lograr cubrir y escanear un corte del cerebro del sujeto, este conjunto Tubo-
Detector avanzaba en pasos discretos desde la “posición 1” a la “posición 160”, en un
movimiento denominado “Traslación” (Fig.14).

Fig.14. Movimiento de Traslación del


sistema Tubo-Detector

Este movimiento de traslación va paso a paso moviendo el tubo de rayos x junto con el
detector en este equipo de Hounsfield. Fueron ciento sesenta pasos, es decir en ese
movimiento de traslación el tubo de rayos x se movía junto con el detector en 160
pasos discretos. Luego todo este conjunto tubo-detector giraba en 1° y comenzaba
todo otra vez, desde el punto número uno hasta el ciento sesenta, luego giraba un
grado más y nuevamente se repetía lo mismo, hasta completar un giro de 180°. Este
movimiento de giro de un grado a la vez, se le denominó movimiento de Rotación. Por
lo tanto este primer equipo, el conjunto Tubo de RX-Detector, realizan el movimiento
de traslación y de rotación.

A cada uno de los pasos discretos del conjunto Tubo-Detector en su movimiento de


traslación, se le llama “Rayo” o “punto de dato”, y al conjunto completo de rayos en
este movimiento de traslación se le llama “Proyección”. Considerando que se tomaron
ciento sesenta puntos de datos en cada movimiento de traslación y giraba 1° en cada
paso, llegando a 180° (fueron 180 proyecciones), podemos calcular que se obtuvieron
28.800 puntos de datos para obtener una imagen.

10
De esta manera, se logra obtener la 1ra imagen clínica de Tomografía Computada
(fig.15), lograda en el Hospital Atkinson Morley, en Londres, 1972. Aquí, Hounsfield
trabajaba junto al Dr. James Ambrose (Neurorradiólogo). En esta 1ra imagen de TC se
logró observar un quiste en el lóbulo frontal del sujeto, por lo que esta técnica
diagnóstica fue aceptada de inmediato por el cuerpo médico, tanto clínico como
radiológico.

Fig.15. Primera imagen de TC

Cabe destacar también, que gracias a sus trabajos, Hounsfield y Cormack reciben
juntos el premio nobel de Medicina en 1979.

IV.- IMAGEN DIGITAL

La Tomografía Computada es la primera modalidad de imagen radiológica que


proporcionó exclusivamente imágenes digitales computarizadas. Por lo tanto, debemos
tener claro: ¿qué es una imagen digital?

Una imagen Digital es una representación bidimensional de un objeto a partir de una


matriz numérica, cuya información se compone de números binarios (fig.16).

Fig.16. Una imagen de TC es una imagen digital

11
En una imagen de Tomografía Computada, podemos distinguir esta matriz numérica.
Si nos acercamos a la imagen y nos enfocamos solamente en una parte de ella, nos
damos cuenta que, en realidad, la imagen está formada por múltiples celdillas, como
se aprecia en la siguiente figura (fig.17).

Fig.17. Representación de las múltiples celdillas que conforman una imagen de TC

Es decir, la imagen completa está formada por esta matriz, en que cada uno de estos
compartimentos o celdillas recibe el nombre de “elemento de imagen” (en inglés,
“picture element”), por lo tanto, cada uno de estos puntos recibe el nombre de PIXEL.

Debido a que cada imagen de Tomografía Computada es una imagen digital, todas
ellas están formadas por una cantidad determinad de Píxeles.

Sin embargo, debemos tener claro además, que lo que vemos, esta matriz de
elementos de imagen, es una representación bidimensional de lo que, en realidad, es
un volumen de información, es un corte, y por lo tanto, tiene un grosor particular que
nosotros vamos a determinar. Por ejemplo, en el caso de la 1ra imagen TC obtenida
por Hounsfield, el grosor de ese corte equivale al grosor del haz de rayos x en el
sentido del eje del paciente, es decir, 13mm.

Por tanto, cada uno de estos cuadraditos o celdillas, que son elementos de imagen,
llamados Píxeles, en realidad tienen un volumen, una profundidad, cada uno de ellos, y
a este volumen se le denomina Voxel (del inglés, “volume element”) (elemento de
volumen), como se observa en la fig.18.

12
Fig.18. Representación del voxel en TC

De esta manera, vamos a obtener una imagen determinada dependiendo de la


cantidad de píxeles que ella contenga, y del grosor de los voxeles (grosor del corte).
En la primera imagen de TC se utilizó una matriz de 80 x 80, es decir, de 80 pixel en
sentido vertical y 80 pixel en sentido horizontal, lo que daba una matriz completa de
6.400 elementos de imágenes, con un grosor de corte de 13mm.

Actualmente los equipos de Tomografía computada utilizan principalmente unas


matrices de 512 x 512, es decir 512 pixeles horizontales y 512 pixeles verticales lo que
da una matriz mucho más amplia (262144 puntos de imagen), y por lo tanto, la
imagen obtenida presenta mucho mayor detalle y mayor nitidez (fig.19).

Fig.19. La calidad de la imagen es mejor al aumentar la cantidad de pixeles

13
La información que contiene cada uno de estos elementos de imagen es información
numérica binaria, es decir, de 0 y 1, cuya combinación va a determinar la
característica que va a presentar ese pixel. En el caso de TC, la combinación de
determinada cantidad de números binarios va a determinar el nivel de gris que le
corresponde a cada pixel.

Por tanto, lo que debemos saber ahora, para saber qué es esa información binaria es:

¿Qué es un bit?

Un “bit” viene de la contracción del inglés “binary digit” (“dígito binario”). Una imagen
que tiene un bit por pixel, significa que cada elemento de imagen, es decir, cada pixel
de esa imagen, va a poder elegir entre dos valores: 0 ó 1, en que, por ejemplo, el
valor 0 puede ser presentado como el color negro y el valor 1 como color blanco. Si
una imagen tiene 2 bit por pixel, ya la combinación de los 0 y 1 va ir aumentando,
vamos a tener el 00, 01, 10, 11, lo que en la imagen se puede traducir como: 00
(negro), 01 (gris oscuro), 10 (gris claro), 11 (blanco). Es decir, una imagen de 2 bit
por pixel ya nos permite tener 4 posibles niveles de gris. En una imagen que tiene 3 bit
por pixel, vamos a tener 8 combinaciones posibles, por lo tanto, con 3 bit una imagen
puede tener, en cada uno de sus pixeles, cualquiera de los 8 niveles de grises posibles
(fig.20).

Fig.20. Cantidad de alternativas de un pixel al aumentar el n° de


bit.

En general, la fórmula para saber de la cantidad de niveles a la que puede optar cada
uno de los pixeles es: 2n (donde “n” es el número de bit por píxel).

14
Como se trata de una imagen digital, por lo tanto, estos distintos niveles de gris se
diferencian en pasos discretos, es decir, en la imagen de la Tomografía Computada no
tenemos un continuo de niveles de gris, como una imagen analógica, sino que, cada
uno de los grises a los que puede optar cada elemento de imagen es un valor
determinado, discreto, particular, que va a depender de la combinación de estos
números binarios (fig.21).

Fig.21. Dentro de la imagen TC la cantidad de niveles de gris


es una escala de valores discretos.

V.- NIVELES DE GRIS

Como se dijo antes, en una imagen digital, la fórmula para saber la cantidad de
valores a la que puede optar cada uno de sus elementos de imagen es 2n. En general,
en Tomografía Computada, se trabaja con 12 bits por píxel, lo que nos permiten
obtener 4096 niveles de gris. Es decir, cada píxel, en una imagen de Tomografía
Computa, que trabaja con 12 bit va a poder optar a cualquiera de los 4096 niveles de
gris posibles. Por lo tanto, como son tantos niveles de gris, para el ojo humano, es
imposible distinguir estos pasos discretos de los niveles de gris, sino que para
nosotros, para el ojo humano, nos va a parecer un continuo de niveles de grises
(fig.22).

15
Fig.22. Para el ojo humano, la cantidad de valores discretos
de niveles de grises parecen un contínuo

Sin embargo, tenemos que saber y tener claro, que en realidad son valores discretos
de niveles de gris.

Por lo tanto, con el tamaño de la matriz utilizado actualmente, de 512 x 512, e incluso
algunos trabajan con 1024 x 1024 hoy en día, y la cantidad de niveles de gris
disponibles (4096 en general), pues también otros Tomógrafos Computados trabajan
con 16 bit, para el ojo humano, casi no hay diferencias entre una imagen digital y una
analógica.

Ahora, en Tomografía Computada, el OBJETIVO ES QUE LOS DISTINTOS NIVELES DE


GRIS ASIGNADOS A CADA ELEMENTO DE IMAGEN DEBEN REPRESENTAR EL TEJIDO
CONTENIDO EN CADA UNIDAD, es decir, el nivel de gris que le corresponde al hígado
debe ser del hígado, el del páncreas debe ser del páncreas, el del hueso del hueso, el
del riñón al riñón, el de la grasa a la grasa, el del musculo al musculo, etc., para poder
diferenciar cada uno de los tejidos en un imagen de Tomografía Computada (fig.23).

16
Fig.23. Imagen corte transversal de TC de abdomen

Entonces, surge la pregunta: ¿QUÉ ES LO QUE REPRESENTA REALMENTE CADA NIVEL


DE GRIS?

Bueno, la intención de la Tomografía Computada, es medir la ATENUACIÓN que ha


tenido el Rx en cada elemento de imagen, de manera tal, que se pueda diferenciar, en
cada pixel, el tipo de tejido que le corresponde.

Por lo tanto, el principio básico de la TC consiste en MEDIR LA DISTRIBUCIÓN


ESPACIAL (ES DECIR, SU POSICIÓN EN EL PLANO XY) DE UNA CANTIDAD FÍSICA QUE
VA A SER EXAMINADA DESDE DISTINTAS DIRECCIONES ESPACIALES Y COMPUTAR
ESTOS DATOS PARA REPRESENTARLOS EN LA IMAGEN FINAL.

Pero entonces, ¿qué es esa cantidad física?

Como sabemos, la intensidad de la radiación emitida por el tubo de Rx disminuye luego


de interactuar con el cuerpo estudiado

A esta disminución de la intensidad de la radiación producto de sus distintas


interacciones con el cuerpo, las cuales pueden ser: Efecto Fotoeléctrico, Efecto
Compton, Dispersión Clásica, etc., se le conoce como ATENUACIÓN.

Por lo tanto, esta ATENUACIÓN del haz de radiación equivale a la ABSORCIÓN de los
rayos x y a DISPERSIÓN de los rayos x, y depende de 4 factores principales, que son
(fig.24):

1. N° atómico del material, pues mientras más mayor el número anatómico del
material que está atravesado por los rayos x, mayor es la atenuación.
2. El Espesor del material también influye, pues también, mientras mayor es el
espesor del material que está siendo irradiado por los rayos x, mayor es la
atenuación del haz.
3. Densidad del material irradiado. También, al aumentar la densidad del material,
mayor es la atenuación de la radiación ionizante.

17
4. La energía del haz. Mientras mayor es la energía del haz, menor la atenuación
que va a tener al ir atravesando el cuerpo.

Fig.24. Factores principales que afectan la atenuación de la radiación

Además, como trabajamos con radiación electromagnética, la atenuación del haz por
un material específico, se rige por la Ley de Atenuación Exponencial, también conocida
como Ley de Lambert – Beer (fig.25), la que indica:

La intensidad de los rayos transmitidos, es decir, la que va a ser detectada por estos
dispositivos de detección de rayos x, es igual a la intensidad de la radiación original, es
decir, la que emite el tubo de rayos x, multiplicado por la constante e, cuyo exponente
es la multiplicación de “-µ x d”, donde “µ” es el coeficiente de atenuación lineal
(específico para cada material y que depende de la intensidad de la radiación) y “d” es
el espesor de cada material atravesado por los rx.

Fig.25. Ley de Atenuación Exponencial o Ley de Lambert-Beer

Ahora ¿cuáles de todos estos datos son conocidos por el equipo de TC?

18
Bueno, el TC va a saber cuál es la intensidad de la radiación emitida, es decir, conoce
I0 (que depende de los parámetros que escojamos, como kVp, mAs, etc). También se
conoce e, porque es una constante. También se sabe la distancia que recorren los
rayos x, y se conoce también la intensidad de la radiación que recibe (que es captada
por los detectores). Es decir, la incógnita que nos queda es conocer µ.

Entonces ¿Qué tenemos que hacer para calcular todos estos coeficientes de
atenuación?

Bueno, para poder generar una imagen, un número suficientemente alto de integrales
de atenuación o valores de proyección deben ser registrados. En el esquema que se
muestra a continuación, se escanea un corte de cerebro, como la experiencia que tuvo
Hounsfield, con el tubo de rayos x y el detector unidos en un movimiento de traslación.
Conjunto que se van a mover en forma lateral para abarcar completamente el
diámetro del cráneo.

En cada uno de los 160 pasos discretos, el detector mide la intensidad de la radiación.
Los primeros puntos, al igual que los últimos, van a medir la misma intensidad de
salida del haz desde el tubo de rx, porque no son atenuados en su trayectoria, pero
mientras avanza y el haz de fotones interactúa con el sujeto, se van atenuando y la
intensidad de radiación que capta el detector, es menor. De esta manera, cada uno de
estos 160 pasos son graficados en una curva de intensidad de radiación vs la distancia
recorrida por el conjunto Tubo-Detector (fig.26).

Fig.26. Movimiento de Traslación del sistema Tubo-Detector y registro de la


intensidad del haz atenuado

Al unir todos los puntos de esta curva, se genera un perfil, llamado “Perfil de
intensidad”. Si a cada punto de este perfil se le calcula el Ln (I0/I), se obtiene el “Perfil
de atenuación”, curva que se utiliza para generar la imagen de TC (fig.27).

19
Fig.27. Perfil de Atenuación generado a partir del Perfil de
Intensidad

Con todo esto se tiene la información de una sola proyección. Sin embargo, para
obtener los datos necesarios para poder generar una imagen o corte axial, es
necesario llevar a cabo mediciones en todas las en todas las direcciones del espacio o,
por lo menos, en un rango angular de 180° (fig.28), para obtener los distintos perfiles
de atenuación, con los cuales alcanzar los datos suficientes, que al procesar se pueda
generar una imagen. Por lo tanto, se generan sucesivos perfiles de atenuación para
sucesivas posiciones angulares.

Fig.28. Se deben generar perfiles de Intensidad, por lo menos, en un


rango angular de 180°

20
¿Cómo se despliega toda esta información en la imagen final?

Bueno, debido a que la cantidad física µ es fuertemente dependiente del espectro de


energía utilizado, el análisis de estos coeficientes de atenuación van a ser desplegados
en la imagen como valores determinados, teniendo como referencia el coeficiente de
atenuación del agua, en los llamados NÚMEROS CT. Estos números CT, por lo tanto,
van a ser específicos a cada tejido, en promedio, y su valor depende de la atenuación
que ha tenido el haz de fotones en ese tejido con respecto a la atenuación que
presenta el haz en agua, de acuerdo a la siguiente fórmula:

En que el resultado se expresa en UH (Unidades Hounsfield), en honor al creador de


esta técnica.

De acuerdo a esta fórmula, se obtienen dos puntos de referencia: el número CT del


agua, que tiene un numero CT cero (µT = µagua), y el aire, que se considera que tiene
un coeficiente de atenuación lineal de cero (µT = 0), por lo tanto, su número CT es -
1000 unidades Hounsfield. De esta manera, para cada tejido, se va a tener un rango
característico de número CT.

Con todo esto, se genera una escala de N°s CT, como se observa en la siguiente
figura, que va desde el -1000 hasta el +1000, donde el valor cero corresponde al
agua, como vimos antes. En esta escala, cada tejido tiene un rango característico de
UH. Así, por ejemplo, el tejido óseo (hueso compacto), que tiene un coeficiente de
atenuación alto, va a tener N°s CT cercanos al +1000. El tejido pulmonar, por el
contrario, al estar lleno de aire, tiene n°s CT bastante negativos, cercanos al -1000. En
la escala, se aprecia también que el tejido adiposo (la grasa) también tiene valores de
UH negativas, entre el -80 y -100 UH. Los tejidos blandos, hígado, riñones, páncreas,
etc y sangre, están en un rango de n°s CT entre el cero y el +80, etc. (fig.29).

21
Fig.29. Escala de Números CT

Los tejidos que tengan valores de N°s CT cercanos al cero se van a llamar Isodensos ,
todos los tejidos que tengan UH más cercanas al +1000 se van llamar hiperdensos y
van a tender al blanco y lo que estén por debajo del cero van a ser tejidos hipodensos,
que van a tender al negro en la escala de grises.

Debido a que, en general, los equipos trabajan con 12 bits por pixel, cada elemento de
imagen puede optar a 212 valores distintos, es decir, cada pixel puede tomar
cualquiera de los 4096 niveles de gris disponibles.

Por lo tanto, la escala real de n°s CT va desde el -1.024, pasando por cero, hasta el
+3.071, así tenemos esta escala que considera los 4096 niveles de grises que puede
optar cada uno de los elementos de imagen (fig.30).

Fig.30. Escala de n°s CT que representa los 4096 posibles niveles de gris

22
Ahora, para poder distinguir los distintos tejidos y patologías, de acuerdo a la
estructura que queremos visualizar, debemos elegir 2 parámetros: El Ancho de
Ventana (WW) y el Nivel de Ventana (LW).

El ANCHO DE VENTANA determina el rango N°s CT que serán desplegados en la


imagen, porque si en la imagen se van estar representando siempre los 4096 niveles
de gris todo va a tener muy poco contraste, por lo tanto, va a ser difícil diferenciar las
distintas estructuras. Entonces, nosotros debemos indicar al equipo TC qué rango de
niveles de gris es el que queremos que se represente, para poder destacar algunas
características, y desplegar principalmente aquello que queremos visualizar. Este
ancho de ventana (WW: Window Width), determina el contraste de la imagen:
mientras mayor es el ancho de ventana, menos es el contraste de la imagen, pues
mientras mayor sea el WW, mayor cantidad de niveles de grises vamos a estar
permitiendo que se visualicen en la imagen, y por lo tanto, el contraste va hacer
menor. Por el contrario, mientras menor sea el ancho de ventana, menor cantidad de
grises vamos a permitir que se visualicen en la imagen, por lo tanto, el contraste de la
imagen va a ser mayor (fig.31).

Fig.31. Ancho de Ventana (WW) en una imagen TC

El siguiente es otro ejemplo donde se ven 3 imágenes con un mismo nivel de ventana
que es la definición que veremos a continuación, pero el WW, el ancho de ventana, es
el que cambia, desde 150 hasta 700 (fig.32).

23
Fig.32. Ejemplo de diferencia de contraste en una imagen TC
por diferencia de WW

En la figura se observa que la imagen que tiene un ancho de ventana de 150 presenta
un contraste mucho mayor que la que tiene un ancho de ventana de 700.

El otro concepto que debemos conocer es el NIVEL DE VENTANA, que corresponde al


valor central de la escala de n°s CT dentro del ancho de ventana asignado a la imagen.

Se selecciona de acuerdo al N°CT promedio de la estructura a estudiar. Por lo tanto, si


quisiéramos estudiar principalmente algún hueso en particular, para poder visualizar
bien una fractura por ejemplo, vamos a poner el nivel de ventana con valores cercanos
al +1000. Si queremos estudiar pulmones, para evaluar nódulos pulmonares por
ejemplo, o cualquier patología del parénquima pulmonar, el nivel de ventana debe
estar cercano al -1000. Si queremos estudiar un tejido blando del abdomen, el nivel de
ventana debe estar entre el cero y +100, etc.

Por tanto, este nivel de ventana va a representar el valor central del ancho de
ventana. Si por ejemplo, elegimos un nivel de ventana de +50 y un ancho de ventana
de 200, vamos a tener 100 valores por encima del +50 y 100 valores por debajo de él,
por lo tanto, nuestra ventana, nuestra escala números CT, va a partir desde el -50
hasta el +150. Todos los valores de N°CT en la imagen, que estén por debajo del -50
van hacer representados por el color negro, y todos los N°CT que están por sobre el
+150 van a ser representados por el color blanco.

La característica de este valor es que el nivel de ventana va a determinar el


ennegrecimiento de la imagen (fig.33). Como se ve en la figura a continuación, se
mantiene un ancho de ventana de 300 y el nivel de ventana es el que se varía desde el
-60, pasando por +40 hasta +100.

24
Fig.33. Diferencias de una imagen TC al variar el Nivel de Ventana

Si la imagen tiene un ancho de ventana de 300 y el nivel de ventana es -60, la imagen


va a tender a ser más blanca, porque al tener un ancho de ventana 300, significa que
vamos a tener 150 valores de grises sobre por el -60 y 150 valores de grises bajo el -
60. Es decir, la escala de números CT representada en la imagen va desde el +90
hasta el -210. Todos los tejidos que tengan un valor de número CT mayor que +90 UH
van a ser representados por el color blanco (la mayor parte de los tejidos blandos), y
los que tengan un valor menor a -210 UH van a ser representados por el negro.

Veamos otros ejemplos. En las siguientes figuras se representa la escala de números


CT desde el -1024 hasta el +3071, y de acuerdo a los tejidos que mejor queremos
representar en la imagen, vamos a seleccionar los valores de Ancho y Nivel de
Ventana.

Fig.34. Ejemplo n°1 WW y WL

25
En esta imagen (fig.34) tenemos un ancho de ventana de 1600 y un nivel de ventana
de -600, es decir, nuestro rango de valores van hacer desde el +200 hasta el -1400.
Todos los tejidos que tengan un N°CT por sobre el +200 van a ser blancos, y todos los
que estén bajo el -1400 van a ser negros, por lo tanto, la imagen va a tender al color
blanco (porque la mayor parte de los tejidos blandos se encuentran en el rango de n°s
CT entre el 0 y el +100, que en este caso están más cercanos al blanco).

En la siguiente imagen (fig.35), tenemos un ancho de ventana más limitado, de 400, y


un nivel de ventana de +40, es decir, tenemos 200 valores por sobre el +40 y 200
valores por bajo el +40, por lo tanto, nuestra escala, va estar entre el +240 y el -160,
y se obtiene una imagen como se ve en la figura.

Fig.35. Ejemplo n°2 WW y WL

Si consideramos otro ejemplo (fig.36), subiendo el nivel de ventana, para visualizar


mejor tejido óseo. Tenemos un ancho de ventana de 1500 y un nivel de ventana de
+450, es decir, tendremos 750 valores por sobre +450 y 750 valores por debajo de
+450, por lo tanto, nuestra escala va desde el +1200 hasta el -300. Recordar que
todos los tejidos que tengan valores de N°CT por sobre el +1200 van a ser
representados en blanco y todo lo que esté por debajo de los -300 van hacer
representados en negro.

26
Fig.36. Ejemplo n°3 WW y WL

CONSIDERACIONES TÉCNICAS EN TC

En Tomografía Computada tenemos distintos Ejes espaciales que van a representar


cómo se adquiere la imagen con respecto al eje del paciente. En todos los Tomógrafos
Computados, el eje Z, es el eje longitudinal del paciente y el plano XY es un plano
perpendicular al eje Z, conformado por el eje X (horizontal) y el eje Y (vertical), que es
el plano de la imagen axial. Por lo tanto, el eje Z, va ser siempre el eje longitudinal del
paciente y el plano XY, es perpendicular al eje Z y corresponde al plano de la imagen
(fig.37).

Fig.37. Ejes en Tomografía Computada

27
Para este curso, vamos a clasificar los equipos de Tomografía Computada desde 3
puntos de vistas:

I. Respecto a la Geometría de Detección.


II. Respecto a la Modalidad de barrido.
III. Respecto al número de cortes adquiridos por rotación del tubo de rx.

I.- GEOMETRÍA DE DETECCIÓN

Esta características de los equipos de Tomografía Computada se refiere a la estructura


geométrica que le permite al TC obtener los datos de atenuación del haz de fotones
para poder procesarlos y generar las imágenes tomográficas, es decir, se refiere a si el
tubo de rayos x está íntimamente ligado con un detector, o con un conjunto de
detectores; si este complejo Tubo-Detector debe realizar movimientos de traslación y
rotación o sólo de rotación, etc, que depende de la capacidad de abarcar la estructura
anatómica en estudio.

De acuerdo a estas características, es decir, de acuerdo a su geometría de detección,


los tomógrafos computados se pueden clasificar con respecto a las distintas
generaciones que han ido apareciendo en el tiempo, con el objetivo de disminuir los
tiempos de adquisición de datos.

1.- Equipos de Primera generación.

Se considera como primera generación de equipos TC, el primer prototipo, es decir, la


experiencia que tuvo Godfrey Hounsfield, en que el conjunto Tubo-Detector realiza el
movimiento de traslación y de rotación, pues el haz de radiación, en forma de Pencil
Beam (es una línea de rx muy colimada) no abarca la estructura anatómica en estudio
con un solo punto de dato. Por lo tanto, el tubo de rx y el detector deben realizar el
movimiento de traslación para abarcar la anatomía que se quiere estudiar, luego el
sistema del tubo- detector gira en 1º y se genera el movimiento de traslación
nuevamente y así va girando hasta lograr los 180º, por lo tanto, estos equipos de
primera generación, utilizan el movimiento de traslación y de rotación para obtener
toda la información necesaria para generar una imagen.

En esta primera generación de TC, el equipo desarrollado y fabricado por Hounsfield se


llamó Mark I, respaldado por EMI, y fue el primer Tomógrafo clínico diseñado para
estudio de encéfalo. Adquiría 180 proyecciones cada 1º y 160 puntos de data (28.800
en total) y se representaba la imagen en una matriz de 80 x 80, como se vio
anteriormente (fig.38).

28
Fig.38. Equipo TC de 1ra generación

2.- Equipos de Segunda Generación

Para ir disminuyendo los tiempos de adquisición de datos, aparece el TC de 2da


generación, en que ya no es solamente un detector, sino más bien se tiene un arreglo
de detectores (30 detectores apróx) y, por lo tanto, el haz de rx ya no es en forma de
lápiz (pencil beam), sino que es un pequeño abanico, de 10° de apertura apróx.
Entonces, al aumentar el rango que abarca el haz de rx en este arreglo de detectores,
disminuye el tiempo de examinación. Sin embargo, de todas maneras, este pequeño
abanico no abarcaba la estructura completa en una sola visualización, por lo tanto,
también en este caso, el sistema Tubo-detectores debía realizar el movimiento de
traslación, luego el sistema giraba en un grado determinado y comienza nuevamente
el movimiento de traslación. Por lo tanto, estos scanner de segundo generación,
también realiza el movimiento de Traslación-Rotación (fig.39).

Fig.39. Equipo TC de 2da generación

29
Este tipo de TC fue fabricado por Ohio Nuclear, y recibió el nombre Delta Scanner. Sin
embargo, no hubo beneficios reales en el tiempo de la obtención de la imagen debido
al lento procesamiento computacional.

3.- Equipos de Tercera Generación.

Este tipo de geometría de detección incorpora un arco de detectores, que rota en


conjunto con el tubo de rayos x cuyo haz de fotones se abre en un abanico más amplio
abarcando completamente la anatomía a estudiar. Debido a esto, los TC de 3ra
generación eliminan el movimiento de traslación y, por lo tanto, el conjunto Tubo-
Detectores sólo realiza el movimiento rotación-rotación (fig.40).

Fig.40. Equipo TC de 3ra generación

Este equipo fue desarrollado en 1976 por GE, denominado Syntec-3000, e incorporó la
utilización de un arco de entre 600 y 800 detectores gaseosos, y una apertura en
abanico del haz de rayos x entre 40° y 60° (fig.41).

Fig.41. Syntec-3000. Primer equipo TC de 3ra generación,


desarrollado por GE

30
4.- Equipos de Cuarta generación.

Este tipo de geometría de detección involucra un anillo completo y estacionario de


detectores, que envolvía al tubo de rx y al paciente, en que solamente el tubo giraba
con un haz de fotones en abanico, que abarcaba también al paciente completo. Este
tipo de TC fue desarrollado en 1978 por AS&E, que incorporó más de 4000 detectores
en un anillo completo de 360° (fig.42).

Fig.42. Equipo TC de 4ta generación

Sin embargo, no prosperó en el mercado debido a lo complejo de su construcción e


instalación, y además, la imagen obtenida presentaba falencias respecto a los TC de
3ra generación.

Por lo tanto, gracias a la capacidad de generar múltiples filas de detectores y a que


permite obtener una mejor calidad de imagen, prevalecen como los más importantes
en uso y en el mercado, los equipos de 3ra generación.

II.- MODALIDAD DE BARRIDO

Esta característica de los equipos TC se refiere a la forma en que el complejo Tubo-


Detector gira alrededor del sujeto, mientras avanza la camilla, para adquirir los datos,
es decir, si es un movimiento contínuo, o si debe tener detenciones en la medida que
avanza.

31
Por tanto, de acuerdo a la modalidad de barrido, los Tomógrafos computados, se
clasifican en:

1. TC Secuencial.
2. TC Helicoidal o Espiral.

1.- TC Secuencial

En este tipo de modalidad de barrido, el equipo TC adquiere la información de un corte


con una rotación del sistema Tubo-Detectores en 360° alrededor del sujeto. Debido a
que hasta el momento la necesidad de energía eléctrica del tubo de Rx y de la
electrónica asociada era alimentado por cables, era necesario movilizar el soporte del
sujeto (camilla) y realizar la siguiente rotación del sistema Tubo-Detectores en el
sentido contrario a la anterior, para desenredar los cables (fig.43).

Fig.43. Modalidad de adquisición secuencial

2.- TC Helicoidal o Espiral.

En este tipo de modalidad de barrido, el equipo TC se independiza de los cables de


alimentación que obligaban a detener la adquisición de datos, luego de una o dos
vueltas de 360° del tubo de rx, y la camilla debía detenerse también respecto a este
avance, lo que permitía obtener las imágenes de manera secuencial, corte a corte. Sin
embargo, en 1986, Toshiba desarrolla la Tecnología de “Anillos deslizantes”, que
permite al sistema Tubo-Detector y a la electrónica asociada un movimiento contínuo a
medida que la camilla avanza (fig.44).

32
Fig.44. Modalidad de adquisición Helicoidal o Espiral

Esta tecnología consiste en un contacto en forma de cepillo, que se desliza a través de


un anillo conductor, permitiendo el paso de corriente. Permite tanto la alimentación del
tubo de rx y detectores, como la transferencia de información para control y
monitorización del funcionamiento del equipo (fig.45.)

Fig.45. Tecnología de anillos deslizantes o “slip rings”

Esta modalidad de barrido se denomina “Espiral” porque el movimiento continuo del


sistema Tubo-Detectores y de la camilla del paciente, provoca que la adquisición de la
información tenga la forma de una espira (fig.46).

33
Fig.46. Adquisición de la información en forma espiral

III.- NÚMERO DE CORTES POR ROTACIÓN

Esta característica de los equipos de TC se refiere a la cantidad de imágenes que el


tomógrafo puede entregar luego de una rotación completa de 360° del tubo de rx.

Por lo tanto, de acuerdo al número de cortes por rotación, los TC se clasifican en :

1. TC Monocorte (singleslice).
2. TC Multicorte (Multislice).
3. TC Monocorte.

Estos equipos de TC contaban con una sola fila de detectores en el plano XY, por lo
que, por cada rotación de 360° del sistema Tubo-Detectores, se podía obtener
solamente un corte tomográfico.

Para efectos de este curso, se va a considerar como TC monocorte también a aquellos


equipos que contaban con 2 filas de detectores, que se adiciona a lo largo del eje z del
sujeto, es decir, que permite obtener 2 cortes por cada vuelta del sistema Tubo-
Detectores (fig.47).

34
Fig.47. Equipos TC Monocorte cuentan con una o dos
filas de detectores

2.- TC Multicorte.

A medida que se van adicionando filas de detectores a lo largo del eje Z del paciente,
mayor es la cantidad de imágenes que se pueden obtener en una sola rotación del
sistema Tubo-Detectores. Para efectos de este curso, vamos a considerar como TC
Multicorte a los equipos que tengan 4 ó más filas de detectores, es decir, aquellos que
permitan obtener cuatro o más imágenes por cada rotación del tubo de rx (fig.48).

Fig.48. Equipos TC Multicorte cuentan con 4 ó más filas de


detectores

35
Por lo tanto, respecto a esta característica, es decir, de acuerdo al número de cortes
por rotación del sistema Tubo-Detector, los equipos TC han evolucionado desde tener
una “Fila de Detectores” a lo que se conoce hoy como un “Arreglo de detectores”
(fig.49).

Fig.49. Evolución de equipos TC respecto a la cantidad de filas de


detección.

36
Fig.50. Ejemplos de equipos TC Monocorte y Multicorte

El Elscint-CT Twin, que permitía obtener 2 cortes por cada rotación del tubo y el equipo
Siemens, Somaton Sensation 64 (multicorte), que permite obtener un máximo de 64
imágenes por cada giro del sistema tubo-detectores.

Una vez que han aumentado las filas de detectores a lo largo del eje Z del paciente, en
los TC multicorte, hoy en día, se permite escoger entre determinados parámetros que
van a indicar el número de cortes que se van a obtener por cada rotación del tubo de
rx y el grosor de dichos cortes, lo que se denomina “Configuración de Adquisición”,
término que está íntimamente relacionado con el número de “Canales de Data”, que
son finalmente las vías de información que van a permitir obtener determinada
cantidad de cortes. Así, por ejemplo, si tenemos un TC de 16 canales de Data, significa
que el número máximo de cortes que puede realizar ese equipo por cada rotación de
360° del sistema tubo-detectores, es 16. Sin embargo, el número de filas de detección
puede variar y ser muchas más que 16, y, de acuerdo a la configuración de
adquisición, le vamos a solicitar al equipo que realice 16 cortes, más finos o más
gruesos, o menos cortes dependiendo de la nitidez y resolución que esperamos
obtener en la imagen y de la estructura anatómica en estudio.

Si contamos con un equipo TC de 16 canales de data, que tiene 40 filas de detectores


(siempre en el eje Z), que están configurados de la siguiente manera: 16 filas de
0.5mm de ancho en el centro de este arreglo de detectores, y 12 filas de 1mm de
ancho a ambos lados, abarcando 32mm de grosor del paciente, como se ve en la figura
(fig.51).

Fig. 51. Ejemplo de equipo TC de 16 canales de data con 40 filas de


detección

37
De acuerdo a estas características del equipo, podremos elegir 3 ó más posibles
configuraciones de adquisición: Si queremos utilizar los 16 canales de data, podemos
escoger entre: 0.5 x 16, para estructuras finas como oído, en que se van a realizar 16
cortes de 0.5 mm de espesor en cada vuelta del tubo de rx. O podemos elegir la
configuración 1 x 16, en que se unen 2 detectores del centro de 0.5 mm en un solo
canal de data para dar la información de un corte de 1mm, es decir, se utilizan las 16
filas de detectores del centro (dando 8 cortes de 1mm) más 4 detectores de 1mm a
cada lado, para obtener 16 cortes de 1mm por cada rotación del sistema tubo-
detectores. Y la otra alternativa es elegir la configuración de adquisición de 2 x 16, en
que se van a obtener 16 cortes de 2mm cada uno por cada rotación del tubo. En este
ejemplo, se observa solamente 3 posibles configuraciones de adquisición, sin embargo,
cada fabricante incluye en sus equipos una variedad de posibles configuraciones. Así,
por ejemplo, en este mismo equipo de 16 canales, podrían existir otras alternativas de
adquisición, como 0.5 x 4, en que se utilizan solamente 4 canales de data, para
obtener 4 cortes de 0.5 mm cada uno, etc.

Por lo tanto, una importante característica de los TC Multicorte es que nos permiten
obtener diversos grosores de corte, de acuerdo a las necesidades de la imagen que
esperamos adquirir.

CONFIGURACIÓN DE UN EQUIPO DE TOMOGRAFÍA COMPUTADA

Los componentes más importantes de un equipo TC son los siguientes:

1. Gantry.
2. Camilla.
3. IRS (image reconstruction system).
4. Consola del operador.

1.- GANTRY

El gantry es el cuerpo de un equipo de TC, que contiene en su interior todos los


sistemas para adquirir la información necesaria para que luego sea procesada y se
genere la imagen tomográfica (fig.52).

38
Fig.52. Gantry y sus principales componentes

Los principales componentes que están en el Gantry son:

1. Generador de alta tensión.


2. Tubo de Rayos X.
3. Colimadores.
4. Matriz de Detectores.
5. Sistema de adquisición de Datos (DAS).

El generador de alta tensión tiene la función de entregar al tubo de rx la capacidad de


emitir radiación ionizante de acuerdo a las características solicitadas por el tecnólogo
médico, es decir, es lo que permite que el tubo emita un haz de fotones con un kVp y
mAs determinados, dependiendo, obviamente, de las capacidades del equipo.
Actualmente, la transmisión de energía desde el generador de alto voltaje hacia el tubo
de rx se realiza a través de los anillos deslizantes.

El tubo de rayos X tiene la función de emitir el haz de fotones, con un kVp y mAs
específicos, determinados por el TM usuario del equipo. Al igual que cualquier tubo de
rx, presentan un cátodo, con determinados filamentos, y un ánodo rotatorio. Sin
embargo, la tecnología también ha influído en la evolución de estos tubos,
principalmente para aumentar la capacidad calórica del mismo o mejorar su sistema de
enfriamiento (fig.53).

39
Fig.53. Distintos modelos de tubos de rayos X

El sistema de colimadores tiene la función de limitar el haz de fotones, tanto para


disminuir la dosis recibida por el paciente y eliminar la radiación dispersa que llegaría a
los detectores. Este sistema consiste principalmente en un precolimador (pre-paciente)
y un postcolimador (post-paciente). La colimación pre-paciente limita la anchura del
haz que se correlaciona con el espesor de corte definido por el operador y cumple una
función importante en el sentido de protección radiológica. La colimación post-paciente
define, en el sentido estricto, el espesor de la colimación y elimina la región de
penumbra producida por el haz de radiación. Es decir, la colimación pre-paciente
influye en la calidad de imagen del corte deseado y en la dosis que recibe el paciente.
Y la colimación post-paciente define el tamaño del espesor de la colimación (que
equivale al grosor de corte en los equipos monocorte) y elimina la penumbra, lo que se
traduce en una mejor calidad de imagen. Por lo tanto, ambas colimaciones influyen en
la conformación del espesor de corte y en la calidad de la imagen (fig.54).

40
Fig.54. Esquema del sistema de colimación de la radiación en TC

En la matriz de detectores, cada elemento de detección se define como un dispositivo,


instrumento o sistema capaz de absorber y transformar la radiación ionizante en luz o
corriente eléctrica, en relación a la intensidad de la radiación que recibe. En TC se
utilizan principalmente 2 tipos de detectores: Gaseosos y de Centelleo.
Los Detectores gaseosos fueron introducidos en los TC de 3ra generación y consisten
en cámaras de ionización, que contienen en su interior gas xenón o mezcla de xenón-
kriptón a altas presiones (fig.55).

Fig.55. Detector gaseoso

Los detectores de centelleo emiten luz de intensidad acorde con la intensidad de


radiación que reciben. Se pueden encontrar en forma de cristal o cerámicos. En un
comienzo, los cristales como detector de centelleo estaban formados por un conjunto
cristal-TFM (tubo fotomultiplicador), pero debido a que los TFM requieren alimentación
eléctrica para su funcionamiento y tiene un tamaño no despreciable, fueron sustituidos
por el conjunto cristal-fotodiodo, que son más pequeños, económicos y no requieren
suministro eléctrico (fig.56).

41
Fig. 56. Detector de centelleo

Cada uno de estos detectores presenta ventajas e inconvenientes, y deben presentar


ciertas características tales como Eficiencia de absorción de rayos x, tiempo de
respuesta, afterglow, etc. Características que se verán en profundidad en clases
posteriores.

El Sistema de Adquisición de Datos (DAS) consiste en 3 componentes principales: el


Amplificador, el Conversor Análogo-Digital (CAD) y el Transmisor (fig.57). Por lo tanto,
la función de este sistema es amplificar la señal recibida por los detectores, convertir
esa señal análoga en información digital que pueda ser reconocida por la unidad de
procesamiento de datos, y transmitir esa señal digital al IRS (sistema de
reconstrucción de imágenes).

Fig.57. Sistema de adquisición de datos (DAS), que genera


una señal digital y la transmite al IRS

42
2.- CAMILLA

La camilla del paciente debe satisfacer esencialmente 2 demandas: Debería poder


bajar tan bajo como sea posible para que el paciente pueda sentarse y posteriormente
recostarse sin problemas, y posteriormente elevarse a la posición exacta de
examinación. La segunda demanda se refiere a una alta precisión, tanto en el
posicionamiento de examinación y velocidad de avance durante el examen (fig.58).

Fig.58. Importancia de la camilla en un equipo TC

43
3.- IRS (SISTEMA DE RECONSTRUCCIÓN DE IMÁGENES)

Este sistema corresponde al procesador de datos, que tiene la función de recibir la


información digital proveniente del DAS, que son los perfiles de atenuación de las
cientos de proyecciones de cada una de las imágenes, aplicar el filtro de Convolución
kernel a cada una de esas proyecciones y realizar el proceso de Retroproyección, para
obtener el conjunto de imágenes con determinadas características, ya sea para
visualizar mejor tejidos blandos o para realzar bordes de huesos o tejido pulmonar,
etc.(fig.59).

Fig.59. Sistema de reconstrucción de imágenes (IRS)

Finalmente, desde el IRS se transmite el conjunto de imágenes para ser visualizadas y


manipuladas por el operador (TM), en la consola de comandos.

4.- CONSOLA DEL OPERADOR

En la consola del operador, el Tecnólogo Médico puede controlar y modificar los


parámetros de programación de la exploración (tales como: kVp, mAs, tiempo de
rotación del tubo, grosor de corte, FOV, algoritmo de reconstrucción, etc), además,
elije los límites de examinación en el paciente. Y una vez realizado el examen, en la
consola del operador se pueden visualizar las imágenes obtenidas, provenientes del
IRS, las que se pueden manipular mediante ventaneo (modificando ancho y nivel de
ventana), y se pueden generar también Reformaciones, que son imágenes coronales,
sagitales o en cualquier otro ángulo, e incluso tridimensionales, que se obtienen a
partir de la información de los cortes axiales (fig.60).

44
Fig.60. Consola del Operador (Tecnólogo Médico)

Bibliografía

• Computed Tomography. . Fundamentals, System Technology, Image Quality,


Applications. by Willi A. Kalender

• Computed Tomography. . Physical Principles, Clinical Applications, and Quality


control. by Euclid Seeram

45
ADQUISICIÓN DE LA IMAGEN EN TOMOGRÁFICA
COMPUTADA
T.M. Rodrigo Pizarro Muñoz

El proceso de adquisición de la imagen en Tomografía computada se refiere a la


recolección sistemática de los perfiles de atenuación del haz de rayos x, que atraviesan
al paciente, producidos a partir de los perfiles de Intensidad de radiación que captan
los detectores, para generar, finalmente, la imagen tomográfica.

Debemos recordar que el objetivo de la TC es reconocer la distribución espacial (la


posición exacta) de los coeficientes de atenuación lineal (µ) de todos los elementos de
imagen (pixeles) de una matriz de reconstrucción determinada.

¿Cómo se realiza esto?

Bueno, comencemos desde el principio. Al momento de realizar un examen de


Tomografía Computada, debemos saber la posición en que se recuesta el paciente con
respecto al Gantry, para que el equipo reconozca realmente cuál es el lado derecho e
izquierdo, adelante y atrás del sujeto en estudio. Entre la posiciones que se pueden
seleccionar están, por ejemplo, “cabeza primero, supino” (el paciente recostado de
espalda, con la cabeza hacia el Gantry); “cabeza primero, prono”; “pies primero,
supino”; “pies primero, prono”, etc. (figura 1). Debemos estar muy atentos en este
paso, pues si nos equivocamos, es posible que el equipo nos entregue una imagen en
que el lado derecho, corresponda realmente al lado izquierdo del paciente, y, por lo
tanto, el informe del radiólogo estará equivocado, lo que puede llevar a un tratamiento
clínico y quirúrgico errado, consecuencia que es muy grave.

46
Fig.1.- Posicionamiento del paciente con respecto al Gantry

Luego de posicionar al paciente en la camilla, de acuerdo a la estructura anatómica


que se va a estudiar, se debe realizar una exploración se scout (llamado también
Topograma, scout view o escanograma), que entrega una imagen como una
radiografía, y que nos sirve para indicarle al equipo los límites de la exploración. Para
esto, el tubo de rx se posiciona en una ubicación estacionaria, frente al paciente,
detrás del paciente o en una posición lateral, el haz de fotones es colimado muy
estrechamente, y mientras el tubo emite radiación, la camilla se desplaza
continuamente una distancia predeterminada, seleccionada por el Tecnólogo Médico, y
que depende del tamaño de la estructura anatómica estudiada (Fig. 2).

47
Fig.2.- Topograma, Scout View o Escanograma

Una vez realizado el topograma, seleccionamos los parámetros de exploración, es


decir, le indicamos al equipo TC con qué calidad y cantidad de fotones de rayos x
vamos a irradiar, con qué angulación del Gantry se va a realizar el estudio, el espesor
de los cortes que queremos representar en la imagen, el espaciado entre los cortes, el
tamaño del campo de la imagen que queremos visualizar, etc. Entre los parámetros
que el Tecnólogo Médico puede seleccionar para realizar el examen, de acuerdo a las
condiciones del equipo y características del paciente, son los siguientes: Angulación del
Gantry, kVp, mA, tiempo de rotación del tubo, grosor de corte, FOV (field of view,
campo de visión), algoritmo de reconstrucción, PITCH (solo en equipos TC
helicoidales), configuración de adquisición (solo en equipos TC helicoidales), entre
otros. Todos estos parámetros se estudiarán en clases posteriores, y su relación con la
calidad de imagen obtenida.

Una vez que se han escogido los parámetros de exploración, los colimadores tanto pre
y post-paciente se ponen en posición para limitar el haz de rayos x de acuerdo a las
características requeridas por el TM (Fig. 3).

48
Fig.3.- Posicionamiento de colimadores pre y post-paciente de acuerdo a los
requerimientos del examen.

El equipo TC ya está listo para comenzar la exploración. Le damos las instrucciones de


respiración o apnea al paciente (si corresponde), y al presionar el botón de inicio de
examen, comienza la adquisición de datos.

Si contamos con un equipo secuencial, debido a que el tubo de ratos x (y electrónica


asociada) es alimentado eléctricamente por cables, el conjunto tubo-detectores debe
girar en un sentido para realizar un corte, mientras la camilla del paciente se
encuentra estacionaria. Luego de terminado el giro, la camilla avanza hasta
posicionarse en el siguiente corte, y el sistema tubo-detector ahora da la vuelta en el
sentido contrario (para desenredar los cables). Por este motivo, este tipo de TC recibe
en nombre “Secuencial” o “Corte a corte”. Debido a esta manera de adquirir la
información, características como el grosor de corte y el intervalo de corte (espaciado
o superposición entre las imágenes) no se pueden modificar después de realizado el
examen.

Si estamos trabajando con un equipo TC Helicoidal Monocorte, ya la alimentación


eléctrica del tubo de rayos x, detectores y electrónica asociada, se independiza de los
cables y se utiliza la tecnología de Anillos deslizantes (slip rings). Con esto, el sistema
tubo-detectores puede girar constantemente en un solo sentido mientras la camilla
avanza continuamente también. Debido a esto, la adquisición de la información
presenta la forma de un espiral y por este motivo, los equipos que trabajan así se
denominan TC Helicoidales o TC Espirales. Acá, la información obtenida ya no es corte
a corte, sino que se obtiene un volumen de información, que el Tecnólogo Médico
puede post-procesar, es decir, puede modificar algunas características de los cortes,
posterior a la adquisición de los datos. Sin embargo, como estos equipos cuentan solo
con 1 fila de detectores (es decir, por cada giro de 360° del sistema tubo-detectores
puede obtener 1 corte), el grosor del corte depende completamente de la colimación
del haz de fotones, característica que se selecciona antes de comenzar el examen. Por
lo tanto, en el post-proceso, el TM puede modificar el incremento de reconstrucción
(que equivale al intervalo de corte en TC secuencial, es decir, a la superposición o

49
espaciado entre los cortes), pero no se puede modificar el grosor de corte, que se fijó
antes de comenzar la exploración.

Ahora, si trabajamos con un equipo TC Helicoidal Multicorte, al igual que en


monocorte, la adquisición de los datos es contínua, y se obtiene un volumen de
información. Sin embargo, como estos equipos cuentan con múltiples filas de
detectores (llamada “Matriz de Detectores”), el Tecnólogo Médico debe seleccionar la
“Configuración de adquisición”, es decir, dependiendo de las características y
posibilidades del equipo, el TM debe elegir el grosor de los cortes y n° de canales de
data activos, lo que equivale finalmente a la colimación. Así, por ejemplo, si se trabaja
con un TC de 16 canales, y se selecciona la configuración de adquisición 0.5 x 16, la
colimación se reduce a 8mm, y por cada vuelta de 360° del sistema tubo-detectores,
con estas características, voy a conseguir 16 cortes de 0.5mm cada uno. Ahora, si se
selecciona la configuración 1 x 16, la colimación se amplía a 16mm y por cada giro del
tubo, se obtienen 16 cortes de 1mm cada uno. Siguiendo la idea, se podría seleccionar
la configuración 2 x 16 y la colimación se amplía a 32mm, o, para estructuras muy
finas como oído, por ejemplo, se podría utilizar una configuración de 0.5 x 4, en que
solamente se activan 4 canales de data, y la colimación es de apenas 2mm. Entonces,
dependiendo de las configuraciones predeterminadas que tenga el equipo, se puede
adquirir la información con determinadas características. Ahora bien, luego de obtenido
el volumen de información, en el post-proceso, en estos equipos TC Helicoidales
Multicorte, se puede modificar tanto el grosor de los cortes como el incremento de
reconstrucción. Sin embargo, el grosor del corte reconstruido no puede ser menor al
grosor de la información que lleva cada canal de data. Así, con otro ejemplo, en el
equipo Siemens Somaton Sensation 64, de 64 canales de data, al seleccionar la
configuración de adquisición 24 x 1.2, se utilizan solamente 24 canales activos, y en
cada giro de 360° del sistema tubo-detectores, se obtienen 24 cortes de 1.2mm cada
uno. Sin embargo, al post-procesar el volumen de información obtenida, se pueden
obtener imágenes con grosor de corte no menor a 1.2mm. En el equipo TC
mencionado, con esa configuración de adquisición, se pueden obtener grosores de
corte de 1.5mm, 2mm, 3, 4, 5, hasta 10mm. (Fig.4).

50
Fig.4.- Distintas maneras de adquisición de la información en TC,
dependiendo si el equipo es Secuencial, o Helicoidal Monocorte o
Helicoidal Multicorte.

ADQUISICIÓN DE LA DATA

Como se vio en la clase anterior, para poder procesar una imagen de calidad aceptable
siguiendo la teoría de Radón, un número suficientemente alto de integrales o valores
de proyección deben ser adquiridos. Para llevar esto a cabo, es necesario realizar
mediciones en todas las direcciones del espacio, o por lo menos, en un rango angular
de 180°, y determinar muchos puntos de datos para cada proyección.

Una simple configuración de mediciones que cumple este propósito está


esquematizada en la figura siguiente (Fig.5), que fue la experiencia lograda por
Hounsfield. Una fuente de radiación con una colimación adecuada, emite un haz de de
fotones muy estrecho, como una línea (pencil beam), y la intensidad de este haz,
atenuada por el objeto, es registrada por un detector posicionado en el lugar opuesto
al tubo de rx.

51
A medida que avanza esta configuración tubo de rx-detector en su movimiento de
traslación, se van adquiriendo los puntos de datos para obtener una “proyección”. El
escáner Mark I de Hounsfield medía 160 puntos de datos por cada proyección. El
correspondiente n° de mediciones que se realizan en los TC de hoy es típicamente
sobre las 750. Después de completar el movimiento de traslación, el conjunto tubo-
detector rota alrededor del sujeto en 1° y el movimiento de traslación se repite para
obtener la segunda proyección. El Mark I repetía este proceso rotando 1° a la vez
hasta completar 180° coleccionando 180 proyecciones para generar una imagen. Los
escanner de hoy recolectan típicamente más de mil proyecciones sobre un giro
completo de 360°

En los Tomógrafos computados actuales, de tercera generación, que disponen de filas


de detectores o matrices de detectores, cada punto de dato es registrado por cada
elemento de detección, como un valor de intensidad de radiación captada luego de la
atenuación que ha tenido el haz de fotones a través del sujeto. Cada elemento de
detección responde a la intensidad de radiación recibida, emitiendo pulsos de corriente
eléctrica o de luz (dependiendo si se trata de detectores gaseosos o de centelleo), cuya
intensidad debe estar directamente relacionada con la intensidad de fotones
registrada.

52
Fig.6.- A partir de la Intensidad de radiación captada por los detectores, se generan los
perfiles de intensidad, a partir de los que se obtienen los perfiles de atenuación, para
generar, posteriormente, las imágenes tomográficas.

De esta manera se genera cada proyección o perfil de intensidad. Es decir, para


representarlo gráficamente, cada uno de los puntos de datos equivale a la intensidad
de fotones registrada por cada elemento de detección. A partir de cada perfil de
intensidad se generan posteriormente los perfiles de atenuación, información que se
utiliza para generar las imágenes tomográficas (Fig.6).

Ahora, y reafirmando lo anterior, dependiendo de su construcción, cada elemento de


detección va a emitir corriente eléctrica o luz, luego de ser estimulados por los fotones
de radiación, cuya intensidad debe ser equivalente a la intensidad del haz de rx que ha
recibido, como se verá luego. Esta señal, emitida por los elementos de detección, es
una señal analógica muy pequeña, por lo tanto, tiene que ser amplificada y
transformada en una señal digital para ser reconocida por el IRS (procesador de
datos). Y estas funciones son llevadas a cabo por el sistema DAS. Todo esto lo
veremos a continuación.

DETECTORES EN TOMOGRAFÍA COMPUTADA

Como definición, un detector en TC es: “Material o dispositivo sensible a la radiación,


capaz de producir una señal adecuada para medición o análisis” (Health Physics
Society).

Un detector, entonces, es capaz de absorber radiación ionizante, en este caso, fotones


de rayos x, y transformarla, por lo general, en luz o corriente eléctrica. Pero lo más
importante es que va en relación a la intensidad de la radiación que incide sobre él. Si

53
no hubiera una relación entre lo que recibe el detector y lo que emite como señal, no
tendría utilidad como detector en TC.

En la siguiente tabla (Tabla 1), se muestra la mayor parte de los tipos de detectores
que existen. Tenemos los que producen una señal eléctrica propiamente tal, donde
vemos que está la gran mayoría de los detectores que usan como principio la
ionización del gas, fabricados como detectores gaseosos (cámara de ionización,
equipos Geiger Muller, etc). Pero también están los detectores de estado sólido que
son los detectores semiconductores, que son cristales que producen una pequeña
corriente eléctrica producto de la excitación mediante ionización. Tenemos también, los
detectores químicos, como los fílmicos, utilizados, por ejemplo, en dosimetría
personal,. Un grupo importante, que se van a estudiar en profundidad, son los
detectores de centelleo, cuyo principal principio es producir luz producto de la
estimulación con rayos x. También están los detectores termoluminiscentes (TLD), que
no se ocupan en tomografía computada, pero sí en dosimetría personal, que también
emiten luz pero mediante la aplicación de temperatura. Y también existen otros
detectores que funcionan en base a calor, como los calorímetros, que pueden ser
sólidos o líquidos.

Tabla 1.- Tipos de detectores de radiación ionizante. Adaptado de: Cember y


Johnson. 4° Ed. 2009

¿Cuáles de estos detectores son los que han sido utilizados principalmente en TC?

En Tomografía Computada se han usado los detectores gaseosos, por un lado,


principalmente Cámaras de Ionización, y también Detectores de Centelleo, que se
presentan habitualmente en 2 formas: como cristal (estructura cristalina) o como
detector cerámico, que es lo que se utiliza actualmente.

Tipos de detectores en TC

• Gaseosos
o Cámara de Ionización.

54
• Centelleo
o Cristales
o Cerámicos (utilizados actualmente)

DETECTORES GASEOSOS

En términos generales, una cámara de ionización es un espacio cerrado, con gas en su


interior a determinada presión. Este gas encerrado, producto del contacto con la
radiación, se ioniza, generándose aniones y cationes dentro de la cámara. En el interior
de esta cámara de ionización, están dispuestos también, dos electrodos, un cátodo y
un ánodo, que son capaces de recolectar estas cargas eléctricas (iones) una vez que se
produce el fenómeno de ionización (Fig.7).

Fig.7.-Funcionamiento de un detector gaseoso, como Cámara


de ionización. Kalender, W. Computed Tomography. 2005

En Tomografía Computada, este tipo de dispositivos fueron usados en los primeros


equipos de 3ra generación (por ejemplo, GE 7800 de 1975). El gas que utilizan en su
interior es principalmente Xenón o, en algunos casos, una mezcla de Xenón-Kriptón,
gases nobles que tienen que estar a altas presiones (15-30 atmósferas),
principalmente porque la eficiencia de detección de los detectores gaseosos es
generalmente baja. Se ocupa Xenón principalmente porque tiene un número atómico
elevado (ZXe = 54), y eso favorece la absorción de tipo fotoeléctrica.

Diseño de los Detectores gaseosos en TC

55
Los detectores gaseosos son una gran cámara metálica que contiene en su interior,
separadores de tungsteno que actúan como colectores de carga, es decir, son los que
recolectan la señal de la ionización al interior del gas, y están espaciados,
generalmente, a intervalos de 1 mm. Por lo tanto, se generaban pequeñas cámaras
independientes, que van a actuar, cada una, como un elemento de detección
independiente. Estos detectores se utilizaban principalmente en los equipos monocorte
(una sola fila de detección), por lo tanto, toda la cámara de ionización formaba la fila
de detección y la separación por las placas de tungsteno generaba pequeñas
camaritas, que equivalen a los elementos de detección, que se encontraban en el eje x
(Fig.8).

Finalmente todo el dispositivo es sellado herméticamente con una gruesa envoltura


cerámica para mantener las condiciones de presión al interior del detector.

Fig.8.- Esquema de la disposición de las cámaras de ionización para formar una fila de
detección en un equipo TC.

¿Cuáles son las ventajas que presentaba un detector de tipo gaseoso?

Primero, era fácil de construir. Segundo, tenía una respuesta uniforme en todos estos
pequeños elementos de detección porque el gas se distribuye uniformemente en el
interior de esta cámara metálica. Y tercero, tiene una muy buena respuesta temporal,
es decir, los tiempos muertos del detector gaseoso son cortos, del orden de los
microsegundos, por lo tanto, era muy fácil estimularlo repetidamente.¿Cuáles son los
problemas de los detectores gaseosos? Básicamente en dos puntos que tienen que ver
principalmente con el avance de la tomografía computada:

1.- Presentan una muy baja eficiencia de detección cuántica, de sólo un 60-70% (J.
Hsieh. 2° Ed. 2009) e incluso se habla de apenas el 50% de detección (Seeram. 2° Ed.
2001). Esto quiere decir, en términos prácticos, que de 100 fotones que llegan al
detector, sólo eran detectados 50 de ellos. Por lo tanto, esto involucraba trabajar con

56
valores de corriente muchos más altas que las que se pueden trabajar actualmente y
eso, obviamente, va a tener un impacto sobre la dosis.

2.- La otra desventaja, que incluso es tanto más importante para la tecnología actual,
es la dificultad para construir dispositivos multicorte con detectores gaseosos. Por lo
tanto, obviamente cuando la tomografía computada dio el salto hacia el multicorte los
detectores gaseosos quedaron obsoletos.Si quedaron obsoletos, entonces, ¿qué los
reemplaza?Los detectores de centelleo.

DETECTORES DE CENTELLEO

Los detectores de centelleo están constituidos por un cristal, que es lo que absorbe la
radiación y emite luz posteriormente, y van asociados a un fotodiodo, generalmente,
aunque en medicina nuclear se asocian a un tubo fotomultiplicador (TFM). En TC no es
factible usar tubos fotomultiplicadores por dos razones principales:

-Primero, los TFMs son muy grandes. Hay tubos fotomultiplicadores de varios
centímetros de tamaño, y aunque hay algunos pequeños, son, en general, muy
grandes para lo que necesitamos en tomografía computada.

- Y lo segundo importante, es que necesitan alimentación eléctrica individual, es decir,


se deben aplicar diferencias de potencial de 1000 volts, por lo tanto, es mucho el gasto
energético para mantener un dispositivo de estas características.

Por lo tanto, lo que se ocupa actualmente, son los fotodiodos, que son dispositivos
mucho más pequeños, como láminas, que pueden incorporarse en un TC Multidetector,
son económicos en general, y no requieren suministro energético (Fig. 9)

Fig.9.- Esquema de un detector de centelleo unido a un fotodiodo.


Kalender, W. Computed Tomography. 2005

57
¿Cuáles son los cristales que se han utilizado en TC?

Los cristales de centelleo que se han utilizado en tomografía computada son:

1.- Ioduro de sodio activado con Talio (NaI:Tl), uno de los primeros utilizados, ya que
es un cristal de centelleo bastante famoso

2.- Ioduro de cesio activado con talio (CsI:Tl),

3.- Wolframato de cadmio (CdWO4),

4.- Germanato de bismuto (Bi4Ge3O12) o BGO.Y los que se utilizan actualmente GE


(General Electrics) y Siemens, que les dan un nombre comercial, que son:

5.- HiLight ((Y,Gd)2O3:Eu, Pr) de GE,

6.- UFC, Ultra Fast Ceramics, o cerámicas ultras rápidas (Gd2O2S:Pr), de Siemens.Que
son complejos basados principalmente en gadolinio y que están activados con
elementos de tierras raras , lantánidos, que son los que finalmente emiten la luz luego
de la excitación producto de la interacción con los Rx.

¿Cuáles son los requerimientos básicos que debe tener un detector en Tomografía
Computada?

Los requerimientos básicos que debe tener un detector en TC son los siguientes:

Primero, que tenga una eficiencia acorde a los requerimientos que tiene el tomógrafo
computado, tiempos de respuesta y efecto afterglow bajo, en general una señal de
salida o un output alto, pero también hay otros requisitos como por ejemplo la
estabilidad ante daño por radiación, porque hay detectores como el yoduro de cesio,
que tienen un historial de radiaciones, esto quiere decir que a medida que se va
irradiando, hay que ir haciendo correcciones en el tiempo, debido a que el cristal se va
dañando por la radiación que recibe. Importante también es la estabilidad térmica y
química, porque hay detectores como el yoduro de cesio (otra vez) y el yoduro de
sodio, que son higroscópicos, es decir, absorben humedad, y eso, obviamente, va
deteriorando el detector a lo largo de su vida útil. También se necesita que sean
homogéneos, uniformes, que tengan un rango dinámico aceptable y un ruido
electrónico bajo.

Vamos a estudiar cada uno de estos requerimientos por separado.

58
Eficiencia de un Detector en TC

La eficiencia de un detector (o eficiencia intrínseca) se refiere a la cantidad de eventos


que son detectados con respecto al total de fotones que inciden en el dispositivo
(Knoll. 3° Ed. 2000). Se había comentado anteriormente que los detectores gaseosos
tienen una pésima eficiencia intrínseca, de todo lo que llega al detector, es capaz de
captar la mitad. Ahora, esta eficiencia intrínseca se puede descomponer en varias
“eficiencias” más pequeñas, que tiene que ver con aspectos fundamentales de los
detectores en Tomografía Computada:

o Eficiencia de Detección Cuántica (Quantum Detection Efficiency) →QDE


o Eficiencia Geometrica (Geometric Detection Efficiency) →GDE

Eficiencia de Detección Cuántica (QDE)

En términos muy simples, se refiere a la cantidad relativa de fotones detectados


efectivamente en el dispositivo (Morgun et al. 2003), o sea, fotones que efectivamente
interactúan con el material del detector, es decir, que produjeron efecto fotoeléctrico
en el detector. Para TC se requiere altos estándares de eficiencia cuántica, por sobre el
90% (Kalender. 2° Ed. 2005). Esta eficiencia está relacionada directamente con las
características físicas del detector como son: el número atómico (Z) y la densidad. Por
lo tanto, el material detector, debe tener alto n° atómico y alta densidad. Valores de
densidades por sobre los 4 mg/cm3 y elementos de número atómico alto, en general,
sobre 50. Pues a medida que aumenta el n° atómico, aumenta la absorción
fotoeléctrica y a medida que aumenta la densidad de masa del elemento, también
aumenta la absorción fotoeléctrica (Fig.10).

Fig.10.- Factores que influyen en la interacción de la radiación con la materia. En este


caso, características físicas del detector, como son su n° atómico y su densidad, son
fundamentales en su eficiencia de detección cuántica.

59
En la siguiente tabla (Tabla 2), se muestran algunos aspectos que tienen que ver con
el número atómico y la densidad de algunos de los cristales mencionados. En general,
los cristales utilizados actualmente tienen valores de densidad por sobre los 4 mg/cm3
y además, tienen un número atómico bastante alto, como el gadolinio que tiene un Z =
64. Obviamente también, las impurezas, que son tierras raras, con un número atómico
bastante elevado, generalmente sobre 50.

Tabla 2.- Valores de Densidad y n° atómico de distintos cristales que se utilizan en la


fabricación de detectores de TC. Krus et al. SPIE. Vol 3768.1999. Roessner et al. J of
Luminesc. 48& 49.1991.

Eficiencia de Detección Geométrica (GDE)

La eficiencia geométrica, en un comienzo, fue dejada de lado y no se le dio demasiado


interés, pero luego del desarrollo de los TC multicorte sí se le ha dado la importancia
que merece. La eficiencia geométrica se refiere a la cantidad de fotones que inciden en
el área sensible del detector con respecto a la cantidad de total de fotones que inciden
en el detector (Kalender, 2° Ed. 2005), esto quiere decir que no toda la superficie del
detector es sensible a la radiación, es decir, existen espacios muertos o septas entre
los elementos individuales del detector. Estamos hablando que en el eje X, en el plano
de imagen, las septas pueden llegar a ser de 0,1 - 0,2 mm para elementos de 1 - 2
mm (Kalender, 2° Ed. 2005).

Luego, cuando se comienzan a apilar filas de detección en el eje Z, éstas pueden llegar
a ser de alrededor de 0,06 mm en el eje Z (Rydberg et al. 2000). Es decir, si se suman
todos estos espacios muertos, va a ir disminuyendo la eficiencia geométrica de toda el
área que representa al detector. Para TC también es necesaria que esta eficiencia
geométrica sea alta, del orden de un 80-90% (Kalender, 2° Ed. 2005).

60
Esta eficiencia geométrica también se pierde, en cierta medida, porque delante del
cristal tenemos que ocupar una grilla antidifusora para eliminar la radiación dispersa
(que encausan los fotones que van directo al detector). Esta grilla antidifusora es un
dispositivo de láminas paralelas, fabricados generalmente de tungsteno (Fig. 11).

Fig.11.- Cristales de centelleo unidos a fotodiodos y a la grilla antidifusora, que influye


también, en la eficiencia de detección geométrica del detector.

Tiempo de Respuesta del Detector en TC

Otro requisito muy importante de los detectores en TC es el tiempo de respuesta.


Debemos tener claro que con los tiempos de rotación de tubo, pequeñísimos hoy en
día, del orden de los 0.33 seg, sumado a la cantidad de proyecciones que toma el
equipo a medida que va rotando, implican que son menos de milésimas de segundos
que involucra detectar cada una de las proyecciones que hace el sistema tubo-detector
a medida que rota en 360°. Por lo tanto, es crucial el tiempo de respuesta que vaya a
tener el detector.

Por lo tanto, para un detector de centelleo, el tiempo de respuesta se refiere al tiempo


que tarda el detector en que la emisión luminosa termine después de un estímulo.
Lamentablemente la disminución de intensidad luminosa en un detector de centelleo
tiene un comportamiento de tipo exponencial, es decir, se demora un tiempo en que
decaiga completamente a cero la emisión luminosa. Habitualmente, para poder graficar
y tener una noción de cuánto es este tiempo, se define una constante de decaimiento
que caracteriza el comportamiento de cada material que se utilice como cristal de
centelleo en TC.

En el siguiente gráfico (Fig.12) se presenta una escala relativa del logaritmo de


intensidad vs el tiempo. Se observa que el Yoduro de Cesio activado con talio tiene un
máximo de intensidad y después comienza a decaer, pero este decaimiento es
prolongado, es largo, es decir, no cae absolutamente a cero la señal que entrega el
detector.

61
Fig.12.- Tiempo de decaimiento de la emisión luminosa de algunos detectores
de centelleo, luego de ser estimulados con radiación ionizante. Roessner et al.
J of Luminesc. 48& 49.1991

Ahora, ¿cuáles son los tiempos reales?

En la siguiente tabla (Tabla 3), se pueden observar los tiempos reales que se manejan
actualmente:

Tabla 3.- Tiempo de decaimiento reales de los cristales de


centelleo. Krus et al. SPIE. Vol 3768.1999. Roessner et al. J of
Luminesc. 48& 49.1991

62
En TC se acepta un tiempo de decaimiento < 1 mseg (Duclos et al. 2003). Según esto,
la mayor parte de los cristales cae dentro del límite de aceptación.

Afterglow

Se refiere al efecto de post-luminiscencia. El detector, al estimularse con radiación X,


va a entregar una señal primaria que es la de mayor intensidad y la que interesa para
realizar las mediciones, pero posteriormente, principalmente en los detectores de
centelleo, hay una emisión luminosa que se retarda con respecto a la señal primaria y
que es posterior al término de la estimulación del detector. Esto se debe a que quedan
algunos electrones “atrapados” entre las impurezas del cristal. La emisión luminosa de
los cristales de centelleo se debe a la excitación de un electrón que cambia de banda y
que posteriormente, cuando vuelve a la banda original, emite un fotón luminoso para
entregar el exceso de energía. En estas redes cristalinas algunos átomos le presentan
“trampas” (una mayor diferencia de energía entre ambos orbitales) a los electrones.
En esas trampas el regreso del electrón al orbital original es un poco más lento, con
diferencias de microsegundos, lo que genera una emisión luminosa indeseada, que no
es la señal original y que, además, se da en un tiempo posterior.

Esto puede llegar a deteriorar la imagen y producir artefactos no deseados. Por lo


tanto, el efecto Afterglow se va a considerar como un porcentaje de señal de la
emisión inicial después de un tiempo determinado. En TC se requiere que sea menor a
0,01% después de 100 mseg. Después del término de la irradiación (Kalender, 2° Ed.
2005).Como se aprecia en la siguiente tabla (Tabla 4), el ioduro de cesio tiene un
afterglow de 0.3% después de 100 mseg, que es un valor muy elevado para los
requerimientos de un TC.

Tabla 4.- Valores de Afterglow de algunos detectores de centelleo. Van Eijk.


Nuclear Instruments and Methods in Physics Research A. 2003

Este efecto de post-luminiscencia también es muy importante, y es propio de los


detectores de centelleo.

63
Output

Otra característica importante en el caso de los detectores de centelleo, es la cantidad


de luz que pueden producir. Se refiere a la intensidad de emisión luminosa de acuerdo
al estimulo que reciben, por lo tanto, se necesita que los detectores tengan una
eficiencia de salida muy alta. En la siguiente tabla (Tabla 5), se puede observar, en la
segunda columna, el output relativo a 80 KeV en relación al ioduro de cesio (que tiene
un valor 100). En la tercera columna se observan los valores de la cantidad de fotones
que emite por cada MeV de energía, esto quiere decir, por ejemplo, que el ioduro de
cesio por cada MeV de energía emite 66.000 fotones.

Tabla 5.- Valores de output relativo al CsI(Tl) y cantidad de fotones que


emiten los cristales de centelleo por cada MeV de energía.

Otros requisitos

- Daño por radiación, el valor aceptable es 0,5% después de un tiempo largo de


irradiación. Lamentablemente, el CsI tiene un historial de irradiaciones, es decir, a
medida que se va irradiando, va disminuyendo su eficiencia y, por lo tanto, es
necesario aplicar factores de corrección después de un tiempo de uso

- Estabilidad térmica, se refiere que sea resistente a la temperatura. Por ejemplo, el


germanato de bismuto disminuye su eficiencia si varía la temperatura, por lo tanto, si
se utilizara en TC debería haber un sistema asociado que mantenga la temperatura a
la que trabaja el germanato de bismuto

- Estabilidad química, es decir, que sea resistente a la humedad. Los ioduros (de Cesio

64
y Sodio) son higroscópicos, lo que significa que reciben daño por absorción de
humedad

- Sin toxicidad, es decir, que sean cuidadosos con el medio ambiente.


Lamentablemente el wolframato de cadmio es tóxico.

- Uniformidad, que debe ser menor al 0,1% entre un elemento y otro

- Homogeneidad del material, idealmente de un 100%. Se le exige que sea mayor al


99%, por lo tanto, es muy importante el tipo de material con el que se puedan
construir matrices de detección en CT.- Crosstalko comunicación cruzada entre los
elementos. Es por esto que existen las septas, y debe ser menor a un 3%. Esto quiere
decir que la luz que se produce en un elemento de detección no debe ser traspasada a
otro elemento

- Ruido electrónico del detector, no debe ser mayor que la mitad de lo que se obtenga
por ruido cuántico (por falta de fotones).

- Rango dinámico, se refiere a la razón que existe entre la corriente más alta y la
corriente más baja que pueda emitir el conjunto detector-fotodiodo. Lo ideal es que el
rango dinámico sea alrededor de 1000000 (un millón). Si se tiene un rango dinámico
muy estrecho, se podrían discriminar pocas señales, que son necesarias para
reconstruir la imagen. Si se discrimina poco, el convertidor análogo digital también
discrimina poco.

.Estos requisitos se resumen en la Tabla 6.

Tabla 6.- Otros requisitos que deben cumplir los materiales utilizados para
fabricar detectores en TC. Kalender, 2° Ed. 2000

65
DETECTORES CERÁMICOS

Los detectores cerámicos son los que se utilizan actualmente en tomografía


computada, y sus principales representantes son los UFC y el HiLight.

Principales ventajas:

• QDE: 99% aproximadamente, es decir, tienen alta eficiencia cuántica.


• Output cercano a CsI:Tl. La señal de salida luminosa es cercana al ioduro de
cesio, que es uno de los mejores de este punto de vista.
• Decaimiento: 10-6 seg (Principalmente UFC). Decaimiento rápido, del orden de
los microsegundos.
• Afterglow: ≈ 0,01%/100 mseg. Efecto Afterglow o de post-luminiscencia bajo.
• Espesor: <2mm, suele ser suficiente. Esta característica es muy importante
porque si el detector es muy grueso, podría absorber su propia luz y, por lo
tanto, llegaría poca señal al fotodiodo.
• Transparentes. Si tuviese color, la luz probablemente llegaría con muy poca
intensidad al fotodiodo, por lo tanto afectaría la señal de salida.
• Alta Pureza.
• Alta uniformidad de producción.

Una de las cosas más importante con este tipo de materiales es que pueden
disponerse en arreglos de detectores para TC multicorte (Fig. 13), se pueden agrupar
en matrices de detección, mientras que los detectores gaseosos no se pueden utilizar
para esto.

Fig.13.- Arreglo de detectores cerámicos para TC multicorte.

Todos los equipos actuales ocupan estos elementos cerámicos como alternativa de
material de detección para su sistema de adquisición de datos, como se muestra en la
siguiente tabla (Tabla 7).

66
Tabla 7.- Los equipos TC actuales utilizan elementos de detección cerámicos para su
sistema de adquisición de datos. NHS. Purchasing and Supply Agency

Ahora, ¿Cómo se disponen estos elementos de detección en el Tomógrafo


Computado?

Para responder esto, debemos conocer bien algunos conceptos:

Ejes en TC:

Recordemos que el eje Z es el eje de avance de la camilla. El plano de la imagen esta


constituido por el eje x e y, que es perpendicular al avance de la camilla. Tiene que ver
también con las orientaciones del paciente en donde el eje z es en el eje longitudinal y
el plano x-y es el plano de corte (Fig.14).

67
Fig.14.- Ejes en Tomografía Computada.

Elemento de Detección:

Es la unidad básica de de un detector. Cada uno de ellos es capaz de detectar un haz


de fotones y entregar una señal independiente (Fig.15).

Al juntarlos, uno al lado del otro, a lo largo del eje X, se genera una “fila de detección”.

Fig.15.- Elemento de detección.

Fila de Detección:

Conjunto de elementos de detección, dispuestos en fila a lo largo del eje X (en el plano
XY).
Luego, si se juntan varias filas de detección a lo largo del eje Z, se genera una “matriz
de detección”.

Matriz de Detección:

Conjunto de filas de detección a lo largo del eje Z (Fig.16).

68
Fig.16.- Si se unen varios elementos de detección en el eje X, se genera una
fila de detección. Luego, si se juntan varias filas de detección en el eje Z, se
forma una Matriz de detección, utilizada en TC Multicorte.

Por lo tanto, una matriz de detección puede contener 2 ó más filas detección de
manera contigua en el eje Z. Ésta es una de las grandes diferencias entre un
tomógrafo computado monocorte y uno multicorte. En el TC monocorte tenemos entre
800-900 elementos de detección en el eje X, pero en el eje Z tenemos una sola fila de
detección. Mientras que en el multicorte existen muchas filas de detección a lo largo
del eje Z que conformaban una matriz.Ahora, debemos tener presente que no todos
los TC Multicorte ocupan la misma distribución de filas de detección, lo cual ha influido
en cómo han variado y se han ido diferenciando desde el punto de vista comercial
(Fig.17).

69
Fig.17.- La variación de los elementos detectores en el eje Z, en tamaño y
distribución, dentro de la matriz de detección, generan distintas presentaciones de
las mismas, lo que las diferencia también desde el punto de vista comercial.

Las matrices de detección se clasifican de acuerdo a la distribución y longitud de los


elementos de detección en el eje Z en:

1. Sistema Simétrico o Matricial.

2. Sistema Asimétrico o Adaptativo.

3. Sistema Híbrido.Principalmente esta clasificación nació por los primeros tomógrafos


computados de 4 canales.

1.- Sistema Simétrico o Matricial

En este tipo de matriz, todas las filas de detección tienen igual longitud a lo largo del
eje Z, como se muestra en el ejemplo de la figura 18.

Fig.18.- En el ejemplo, este equipo GE, tiene 16 filas de detección a lo largo del eje Z,
y todos sus elementos de detección, en este sentido, miden 1.25 mm.

70
2.- Sistema Asimétrico o Adaptativo

Como su nombre lo indica, NO todos las filas de detección poseen igual longitud en el
eje Z.
La longitud de los elementos comienza a aumentar progresivamente desde el centro
hacia la periferia, por esto también fueron llamadas “matrices progresivas” (Fig.19).

Fig.19.- En el ejemplo de la imagen, en los 1ros equipos TC Philips y Siemens de 4


canales, presentan matrices adaptativas, en que los elementos de detección (8 en
total, en la dirección Z) miden 1 mm en el centro y su longitud va aumentando hacia
la periferia.

3.- Sistema Híbrido

Es también un sistema asimétrico, pero se denomina “híbrido” porque sólo algunas


pocas filas en el centro tienen una menor longitud y el resto de las filas hacia la
periferia es uniforme y de mayor longitud (Fig.20).

Fig.20.- Ejemplo de matriz de detección híbrida. El equipo Toshiba Aquilion Multi


tiene 4 elementos de detección de 0.5mm en el centro y el resto de los elementos
hacia la periferia son todos iguales y más gruesos, de 1mm.

71
En la siguiente figura se muestra otro ejemplo de matriz híbrida (Fig.21).

Fig.21.- Otro ejemplo de matriz de detección híbrida, que consta de 52


elementos de detección en el eje Z, 40 de ellos están al centro y miden
0.625mm cada uno, y en cada extremo tiene 6 elementos de detección de
1.25mm cada uno.

En la siguiente tabla (Tabla 8), se pueden apreciar distintas configuraciones de equipos


TC de 16 canales. Por ejemplo, el GE BrightSpeed Elite tiene 16 elementos de
detección de 0.625mm en el centro y 8 elementos de 1.25mm hacia la periferia, es un
híbrido; el Siemens Somaton Emotion 16 presenta 16 elementos de detección de
0.6mm al centro y 8 de 1.2mm hacia la periferia (recordar que estas longitudes se
miden en el eje Z), etc.

72
Tabla 8.- Diferentes configuraciones de matrices de detección en distintos modelos de
equipos TC.

Hasta ahora hemos visto todo lo que tiene que ver con el detector propiamente tal.
Vamos a ver ahora, el paso siguiente al detector, que es lo que se conoce como
Sistema de Adquisición de datos (DAS).

SISTEMA DE ADQUISICIÓN DE DATA

El DAS (Data Acquisition System) es el paso siguiente al detector y constituye la


electrónica que permite transformar la señal análoga que entrega el detector (señal
eléctrica) en una señal digital que entienda el sistema de reconstrucción de imagen.

Funciones:

• Mide y amplifica la señal analógica. Debido a que la señal que envía un detector
es del orden de un microampere o un nanoampere, por lo tanto, son corrientes
muy bajas que deben amplificarse.
• Transforma la señal análoga amplificada en números binarios.
• Transmite estos números binarios (señal digital) a un computador (sistema de
reconstrucción de imágenes, IRS).

Está compuesto por 3 partes principales (Fig.22):

73
1.- Amplificador de Señal

2.- Conversor análogo-digital (CAD)

3.- Transmisor

Fig.22.- Componentes del sistema de adquisición de datos (DAS): Amplificador de la


señal, conversor análogo-digital (CAD) y transmisor.-El Amplificador tiene la función
de aumentar la señal recibida de los detectores, que es una señal eléctrica analógica
muy pequeña (siempre reciben una señal eléctrica, pues la luz emitida por los
detectores de centelleo es transformada también en energía eléctrica). La intensidad
de corriente que recibe a la entrada es incrementada, obteniéndose una señal
aumentada a la salida. Debemos tener presente que el amplificador debe incrementar
la señal recibida de cada uno de los elementos de detección, que se traduce en la
representación eléctrica de la intensidad de radiación registrada por cada uno.

Una vez amplificada la señal, pasa al Conversor Análogo-Digital.

-El Conversor Análogo-Digital (CAD) tiene la función de transformar la señal


eléctrica que recibe en una señal digital (código binario)(fig.23), que pueda ser
interpretada por el procesador de datos (IRS) para realizar la reconstrucción de
imágenes. Esta tarea es realizada por el CAD en 3 etapas:

1.- Sampling (muestreo): conversión de la señal eléctrica contínua, en discreta,


generando cortes en ésta.

2.- Quantization (cuantización): conversión de la señal discreta en señal digital.

3.- Coding (Codificación): Asignación de un código binario a la señal.

Fig.23.- Esquema de la función del CAD, que toma la señal eléctrica y la transforma en

74
una señal digital, que pueda ser reconocida por el sistema reconstructor de imágenes.

-Y finalmente, esta señal digital pasa al Transmisor, que tiene la función de enviar
todos estos códigos binarios al sistema de Reconstrucción de imágenes (IRS), que
debe procesar todos losdatos recibidos, calcular los correspondientes perfiles de
atenuación de cada proyección, aplicar los filtros de Convolución kernel y los procesos
de retroproyección, o realizar la reconstrucción iterativa, según corresponda, para
obtener el coeficiente de atenuación correspondiente a cada voxel, y además, calcular
el nivel de gris (n°CT) que va a ser representado en cada pixel, para entregar
finalmente, el conjunto de imágenes tomográficas que pueden ser visualizadas en el
monitor de la sala de comandos, para ser manipuladas, ventaneadas y post-
procesadas por el Tecnólogo Médico. Temas que serán estudiados posteriormente

Toda esta electrónica de adquisición de datos constituye una “ruta” de digitalización,


que genera un canal de datos espacial (Rydberg. 2000) llamado “Canal de Data”. Lo
podemos llamar indistintamente “Sistema de Adquisición de Datos” o “Canal de
Data”.Por lo tanto, cada canal de data es el encargado de digitalizar la información que
contribuye a la formación de un corte por cada rotación. Los TC Multicorte poseen un
número determinado de canales de data de acuerdo a la cantidad de cortes que es
capaz de adquirir en cada rotación, de acuerdo al diseño del equipo. Por ejemplo, en
un equipo de 64 canales de data (ó 64 canales), efectivamente cuenta con 64 rutas de
digitalización para la construcción de 64 cortes por cada rotación de 360° del tubo de
Rx.

Por lo tanto, estos canales de data son los que nos permiten tener 64 ó 16 ó 4 cortes
por cada rotación, y no las filas de detección.Un canal de data determinado puede
acoplar la información de más de una fila de detección para construir un corte. En este
caso, el grosor del corte adquirido será igual a la sumatoria de la longitud de cada una
de las filas de detección que acudan a un canal determinado. Por ejemplo, dos filas de
detección pueden aportar a la construcción de un solo corte. Así, cada una de estas
filas de detección va a contribuir con una cantidad de señal o información, y toda esta
señal, de ambas filas de detección, se digitalizan por un solo canal de data, por lo
tanto, dos filas detección están contribuyendo para la construcción de un solo corte
(Fig.24).

Fig.24.- Esquema de 2 filas de detección (en el eje Z) que


contribuyen a la ruta de un solo canal de data y, por lo tanto,
ambas filas participan en la formación de una sola imagen TC.

75
En la siguiente figura (Rydberg. 2° Ed. 2005) se presenta una matriz de detección
simétrica, de un equipo GE, donde todos los elementos de detección son de 1,25 mm,
pero el equipo es de solo 4 canales de data. Debido a que el equipo cuenta sólo con 4
canales, nunca va a entregar más de 4 cortes por cada rotación. Si se quiere utilizar la
matriz de detección completa, el equipo debe hacer confluir grupos de filas de
detección en un solo canal para construir finalmente, cortes de 5mm (Fig.25).

Otra cosa que puede hacer el DAS, es trabajar con menos canales de los que dispone.
El sistema puede desactivar o “apagar” un determinado canal de data, y adquirir una
menor cantidad de cortes en cada rotación. Así, por ejemplo, en la siguiente figura,
equipo Siemens Somaton Sensation 64, tiene 8 elementos de detección de 1,2mm en
los extremos y 32 elementos de detección de 0,6mm en el centro. Si se quiere adquirir
24 cortes de 1,2mm, el equipo junta los elementos internos de dos filas de detección
en un solo canal. Entonces ocupa 24 canales de data (24 canales activos, de los 64
disponibles) y cada corte es de 1,2 mm (Fig.26).

76
Fig.26.- Se pueden generar 24 cortes de 1.2 mm cada uno, por cada rotación de
360° del sistema tubo-detectores, en un equipo TC que cuenta con 64 canales de
data. Somatom Sensation 64; Mode 1: 24 slices each 1.2 mm.

Entonces, ¿Cómo sabemos cuántos cortes vamos a adquirir por cada rotación del tubo
y de qué grosor es cada corte que estamos adquiriendo?

Para esto se utiliza lo que se denomina “Configuración de detección” o “Configuración


de Adquisición”.

Configuración de Detección o de Adquisición

Es una nomenclatura que describe brevemente, de forma numérica, el modo de


adquisición en términos del número de canales de data activos durante la adquisición y
el grosor efectivo obtenido para cada corte.

Debemos tener presente que la configuración de adquisición NO describe el número de


filas de detectores involucrados, ni el tipo de diseño de la matriz. Sólo se puede saber
esto con el manual del equipo determinado, en las características del detector.

Por ejemplo, en un protocolo propuesto por Siemens para TC de cabeza, dice que la
adquisición (Acquisition) es de 64 x 0.6mm, que significa que, cuando se adquiera con
esta configuración, se van a obtener 64 cortes por cada rotación de 360° del sistema
Tubo-Detectores, y cada uno de esos cortes va a tener 0,6 mm de espesor (Fig.27).

77
Fig.27.- Ejemplo de nomenclatura de una “Configuración de
Adquisición”.

En otro ejemplo, se trabaja con un equipo TC de 4 canales, que cuenta con una matriz
de detección simétrica, con 16 filas de detección, cada una de ellas mide 1.25mm. Si
se selecciona la configuración de adquisición: 4 x 5mm, significa que el equipo va a
generar 4 cortes, de 5mm cada uno por cada rotación del tubo de Rx (Fig.28).

Fig.28.- Configuración de adquisición de 4x5mm, en un equipo de 4


canales de data.

Ahora, si en el mismo equipo se selecciona la configuración de 4 x 1,25 mm


corresponde a una adquisición desarrollada con 4 canales de data y un grosor efectivo
para cada corte de 1,25 mm. Por lo tanto, por cada rotación del tubo, de 360°, se
adquieren 4 cortes de 1.25mm cada uno (Fig.29).

78
Fig.29.- Configuración de adquisición de 4 x 1.25mm en el mismo
equipo anterior.

Entonces, finalmente

¿Cuál es el aporte del número de filas de detección en los equipos multicorte?

En realidad son dos:

1.- Cobertura anatómica

2.- Diversidad de cortes que se pueden adquirir.Cobertura AnatómicaEn la siguiente


figura, se presentan matrices de detección de equipos de 4 canales. En donde GE,
Phillips y Siemens tienen una cobertura de 20 mm mientras que Toshiba, 32 mm, o
sea, con la misma lógica de 4 cortes por rotación Toshiba era capaz de cubrir una
región anatómica mucho más grande (Fig.30).

79
Fig.30.- Importancia de la cantidad de filas de detección, respecto a
cobertura anatómica, en equipos TC con 4 canales de data.

En la siguiente figura se presentan matrices de equipos más modernos (Fig.31).

Fig.31.- Cobertura anatómica en matrices de detección de equipos CT modernos.

Se observa que la cobertura de los equipos Brilliance 40 y lightSpeed Pro 32 es de

80
40mm, la del equipo Sensation 64, de 28.8mm y la del Aquilion 32, de 32mm.En la
siguiente tabla, se presentan las coberturas de otros equipos, de acuerdo a la
configuración de sus matrices de detección y n° de filas de detección (Tabla 9).

Tabla 9.- Características de matrices de detección de distintos equipos TC. En la


primera línea se describe la cantidad de filas de detección en el eje Z; En la segunda
línea, cómo está configurada cada matriz de detección; y en la tercera línea, el largo
total efectivo de cada matriz, lo que equivale, finalmente, a su cobertura anatómica.

Cuando se tiene un arreglo de detectores más amplio, es decir, de mayor cobertura,


está cubriendo una mayor región anatómica cuando hace el barrido, por lo tanto, el
estudio se puede realizar de forma más rápida también, sin embargo, se debe tener
precaución con el llamado “Artefacto de cono”, término que se describirá con mayor
detalle en clases posteriores.

Cobertura = [N° canales x Grosor ef.] x T’ barrido x Pitch

T’ rotación

De aquí, se desprende que:

T’ barrido = Cobertura x T’ rotación____

[N° canales x Grosor ef.] x Pitch

Entonces, matrices más grandes me permiten cubrir mayores distancias, o cubrir la


misma distancia en un menor tiempo.

La cobertura lograda por el equipo TC es un tema sensible en el examen llamado


“perfusión cerebral”, ya que el equipo ocupa todo el detector para esto. Por ejemplo si
el detector es de 28mm, la región del cerebro que puede cubrir para perfusión es
pequeña (porque para evaluar la perfusión, se realizan cortes en la misma posición, sin

81
movimiento de la camilla, y se va evaluando el flujo sanguíneo durante el tiempo en
esa zona). Ahora, si tenemos 40 mm de cobertura, se puede hacer una perfusión de
una mayor zona del cerebro. Por lo tanto, desde este punto de vista, conviene tener
una matriz de detección más grande.

Diversidad de los Cortes

La diversidad de corte, sobre todo en los primeros equipos de 4 canales, estaba


íntimamente relacionada entre la fila de detección y todo el sistema de colimadores
que tiene el equipo. En TC, a diferencia de los equipos de radiología convencional, hay
2 colimadores. Uno llamado pre-colimador, que está a la salida del tubo de rayos X, y
otro denominado post-colimador, que está a la entrada del sistema de detección
después del paciente. El trabajo de ambos determina qué zona del detector va a
irradiarse en cada una de las adquisiciones que se realizan.Este sistema era vital para
los equipos de una fila de detección (TC Monocorte) porque finalmente la colimación
determinaba el grosor de cada corte. Por ejemplo, si se tiene una fila de detección, de
10mm de grosor en el eje Z, y solicitamos cortes de 10mm, se abre todo el colimador,
pero si se quería cortes de 5mm, se debía bloquear parte del detector para que la
señal correspondiera a 5mm.

En los tomógrafos computados multicorte, el grosor de corte y la colimación no van tan


de la mano, pero sí es importante la colimación para saber qué zona del detector se va
a irradiar, si solo los elementos más finos centrales o todo el detector.Con el post-
colimador se puede eliminar cierta parte de la radiación dispersa luego que el haz
primario de Rx es atenuado por el paciente, similar a lo que hace la grilla antidifusora.
Además, el pre-colimador determina qué zona del paciente se va a irradiar, si se va a
irradiar una zona pequeña del paciente no necesito abrir el campo completo, para no
entregar dosis innecesaria a zonas que no van a ser evaluadas (Fig.32).

82
Precolimador Postcolimador

Fig.32.-Precolimador (Tube Collimator) y Postcolimador (Detector Collimator).

TC de 2 canales

El sistema de post-colimación para un tomógrafo de 2 canales era tan vital como para
un monocorte. Se tienen 2 filas de detección y 2 canales de data, pero todavía el
grosor de corte que se podía adquirir estaba íntimamente relacionado a la colimación
del detector. Ya que, si se quería cortes pequeños, se debía colimar grandes zonas del
detector, por ejemplo, para obtener cortes de 1mm. Y así también, tenía la opción de
trabajar con el colimador abierto y con el detector completo, como se muestra en la
siguiente figura (Fig.33).

Fig.33.- Función del Post-colimador en un equipo TC de 2 filas de detectores y 2


canales de data. La zona más clara representa la apertura del colimador, es decir, la
parte que es irradiada en el detector. Acá, la apertura del colimador determina el
grosor de corte de la imagen TC. SOMATOM Emotion Duo Application Guide

83
TC 4 canales

En los TC de 4 canales se producía una cosa levemente distinta. Acá se genera una
íntima relación entre la colimación y el grosor de corte obtenido, a pesar de ser un
equipo multicorte.Así, por ejemplo, para el equipo TC presentado en la siguiente figura
(Fig.34), en teoría, no se podría adquirir con una configuración de adquisición de 4 x
1mm, porque tiene sólo 2 filas de detección de 1mm al centro, y las adyacentes son de
1.5mm, pero el equipo sí presenta esta opción. ¿Cómo lo hace entonces?

Fig.34.- Matriz de detección de un equipo TC de 4 canales de data, en el


que se podía seleccionar la configuración de adquisición 4 x 1mm, a pesar
de tener sólo 2 filas de detección de 1mm.

Bueno, este equipo tenía la posibilidad de bloquear, con el post-colimador, una porción
de los detectores de 1,5 mm para “transformarlos” en detectores de 1 mm y tener, con
los 4 canales activos, 4 cortes de 1mm (Fig.35).

Fig.35.- El postcolimador bloquea parte de los detectores de 1.5mm, de manera


que la información que recibían los 4 canales corresponde a 4 cortes de 1mm
cada uno.

Para este mismo equipo, se podía seleccionar la configuración de adquisición 2 x


0.5mm, que en teoría, no lo podría reconstruir porque no tiene elementos de detección

84
de 0.5mm de grosor, pero sí funcionaba si se ocupa el post-colimador y se bloquea
parte de los detectores de 1mm para transformarlos en detectores de 0,5 mm. Acá se
activan 2 canales de data, de los 4 disponibles (Fig.36).

Fig.36.- En este equipo se podía


seleccionar también la
configuración de adquisición 2 x
0.5mm, debido a que el post-
colimador podía bloquear parte
de los detectores de 1mm.

Esto funcionaba bien, pero no


era perfecto. El problema es que
los haces de rayos x no son tan
paralelos, siempre hay una
divergencia, por lo tanto, este bloqueo no era absolutamente perfecto. Por lo tanto, en
la siguiente generación se trato de evitar esta técnica.

TC > 4 canales

Ahora, el pre-colimador y el post-colimador determinan qué zona del detector se va a


irradiar, y evitan irradiar al paciente en zonas innecesarias. Es decir, al seleccionar
determinada configuración de adquisición, los colimadores de ajustan finamente para
irradiar solamente la zona del detector que realmente interesa (sin utilizar los
elementos de detección de los extremos de la matriz, por ejemplo) y se disminuye la
dosis de radiación recibida por el paciente, evitando la exposición en zonas que no
serán estudiadas (Fig.37).

85
Fig.37.- En equipos TC de más de 4 canales, pre-colimador y post-colimador se ajustan
agudamente para irradiar las filas de detección determinadas, de acuerdo a la
configuración de adquisición. Mode 0: 32 slices each 0.6 mm

Espero que el material presentado haya sido de su agrado.

Saludos cordiales,

TM Rodrigo Pizarro Muñoz.

86
METODOS DE RECONSTRUCCIONES EN TOMOGRAFÍA
COMPUTADA
T.M. Daniel Castro Acuña, MSc
T.M. José Aguilera Valenzuela

Introducción

La reconstrucción es un tema complejo, cuya implementación requiere de una gran cantidad de


matemática aplicada e ingeniería muy densa, pero donde lo importante es tener ciertas bases
para comprenderla. La reconstrucción de puede definirse como un proceso, que específicamente
en TC, se refiere a la conversión de perfiles de data, también llamados proyecciones, en una
imagen axial mediante el uso de algoritmos matemáticos

En Tomografía Computada se adquiere una serie de estas proyecciones producto del haz de
fotones que atraviesa un cuerpo u objeto en estudio. En la siguiente imagen se observa un
perfil obtenido para una posición específica del sistema tubo-detector. Es necesario mencionar
que el scanner realiza un muestreo de entre 1200 a 2000 perfiles por cada giro, número que
depende de la marca y del modelo del equipo.

Figura 1: Perfil obtenido para una


orientación específica del sistema tubo-
detector.

La forma en que se puede reconstituir ese cuerpo a partir de las proyecciones obtenidas es a
través de la utilización de una ley denominada Ley de Lambert-Beer o Ley de Atenuación
Exponencial, que nos permite obtener la intensidad de un haz de fotones que atraviesa un
cuerpo o material.

87
En esta fórmula, el único parámetro desconocido es el factor µ que está en el exponente y
corresponde a una característica particular de cada material o tejido, en este caso su coeficiente
de atenuación lineal. Esta ecuación es simple de utilizar en el caso en que el cuerpo en estudio
es homogéneo, es decir, contiene un material de un solo valor de µ, y es atravesado por un haz
de fotones que portan un valor de energía único, es decir, un haz monoenergético (figura 3).
Cuando el medio no es homogéneo, y más de un tipo de material en la ruta del haz de rayos X,
la atenuación que se puede observar corresponde a la sumatoria de las contribuciones
realizadas por cada uno de estos materiales en función de su coeficiente de atenuación,
densidad y espesor. Para poder discriminar las características y ubicación de cada uno de estos
materiales dentro del objeto en estudio, es necesario tomar muestras sucesivas en varios
ángulos alrededor del objeto, y a través de la resolución de un sistema de ecuaciones llegan al
resultado esperado.

Las primeras complicaciones de este modelo saltan a la vista cuando nos acercamos a lo que
sucede realmente en TC. En primer lugar el paciente es altamente heterogéneo en su
composición, es decir, podemos encontrar un muy alto número de coeficientes de atenuación
lineal distintos a los largo del paso de un haz de rayos X al obtener una sola proyección. La
segunda complicación es que en TC el haz de rayos X utilizado para explorar al paciente es
tremendamente polienergético, donde en realidad existe una distribución continua de fotones
con distintas energías hasta un valor máximo que se corresponde con el valor de voltaje de
tubo utilizado durante la rotación. Esto trae consigo una complicación sustancial de la original
ecuación para el caso de un objeto homogéneo en estudio, para un haz monoenergético.
Además de ello, los valores de µ encontrados en los tejidos biológicos son muy cercanos unos
como lo muestra la siguiente tabla para hueso, sangre, sustancia gris, sustancia blanca, agua,
grasa, aire, y por lo tanto su diferenciación es también compleja.

Figura 2: Coeficientes de atenuación para distintos tejidos biológicos (M= µ)

Debido a estas extremadamente pequeñas diferencia, se hace necesario realizar un


escalamiento tomando como referencia el coeficiente de atenuación lineal del agua. Esto
constituye la llamada Escala de Unidades Hounsfield, que a través de la aplicación de un factor
de 1000 nos permite ampliar estas pequeñas diferencias de coeficiente de atenuación lineal.

88
El objetivo del proceso de reconstrucción es representar correctamente las características de
atenuación de los materiales que constituyen el objeto en estudio, así como darles una
ubicación espacial que permita acercarse lo mayor posible a la realidad.

Figura 3: Cálculo de µ en una objeto homogéneo explorado con un haz monoenergético.

89
Figura 4: Cálculo de µ en un objeto no homogéneo explorado con un haz de rayos X
monoenergético.La figura 4 es un ejemplo de cómo se complica la estimación de los distintos
coeficientes de atenuación lineal en un medio inhomogéneo. En el caso del cuerpo humano la
situación es mucho más compleja, como lo representa la figura 5, en que un haz de fotones
polienergético atraviesa una cantidad enorme de diferentes densidades como hueso, sustancia
gris, sustancia blanca, aire, grasa, etc, con diferentes espesores.

Figura 5: Cálculo de µ en el caso real del estudio de cerebro mediante el uso de un haz
polienergético.

90
Para cumplir con este objetivo se han desarrollado a lo largo de la historia diversos métodos de
reconstrucción. A continuación revisaremos aspectos generales de estos.

Métodos de Reconstrucción

En 1917, muchos años antes de la aparición del primer TC, el matemático austriaco Johann
Radon desarrollo una teoría matemática que ha servido de base para la TC de hoy. Sin
embargo, durante su vida no hubo resultado práctico de ello, una constante de la época, donde
muchos sabios desarrollaron teorías que no se pudieron probar o implementar hasta años
posteriores a su muerte. Radón estableció en su teoría la forma de poder obtener una función
de 2 variables, en este caso la distribución de los coeficientes de atenuación lineal (UH en rigor)
en el plano de la imagen x-y a través del resultado de la integración de rectas o funciones
lineales (proyecciones) que a traviesan el objeto en estudio (paciente). Este proceso
matemático se bautizó con el nombre de “Transformada de Radón”, y su expresión matemática
se presenta a continuación.

Esta compleja expresión ha sido implementada tecnológicamente en los equipos de TC, y su


resolución a derivado en dos métodos principalmente: Método Iterativo y Método Analítico.

Método Iterativo

También llamado Técnica de Reconstrucción Algebraica o ART (Algebraic Reconstruction


Technique). En este método a partir de las múltiples proyecciones obtenidas durante la
adquisición de la data se generan distintas ecuaciones o matriz de ecuaciones, donde las
incógnitas a descubrir son los valores de µ para cada pixel. Estas ecuaciones son resueltas por
un método de aproximación, a través del cual se inicia con una proposición de soluciones para
el set de ecuaciones asumiendo que los valores de cada pixel son iguales al valor de la
proyección obtenida en una orientación. y se establece el error con respecto a los valores de las
proyecciones obtenidas en otras orientaciones (o ángulos alrededor del objeto). A través de
múltiples repeticiones o iteraciones se van adecuando los valores para ir reduciendo el error
entre lo propuesto y lo medido hasta alcanzar un valor aceptable.

91
Figura 6: Sistema de ecuaciones para la distintas matrices de reconstrucción simples.

La principal desventaja de este método es la cantidad de tiempo que involucra el proceso de las
múltiples iteraciones y el recurso computacional necesario.

Método Analítico

También llamado de forma genérica como Técnica Analítica o también “Convolución-


Retroproyección”. La Retroproyección es un proceso que consiste en que cada una de las
proyecciones participa como un todo adicionando información a la imagen completa, en otras
palabras, es como ir “apilando” información. Vamos a graficar el proceso con un ejemplo. En la
figura siguiente, se observa un esquema de la adquisición de la data de un objeto circular que
contiene en su interior un objeto más pequeño, también circular, de una composición distinta al
resto (coeficiente de atenuación lineal).

Figura 7: Corte de un objeto que va a ser representado por una imagen TC utilizando el
método analítico de reconstrucción de imágenes.

92
La imagen se establece en un plano que inicialmente no contiene información alguna. A esto
llamaremos “matriz de reconstrucción”. Posterior a ello se realiza la proyección de la
información contenida en cada perfil obtenido hacia esta matriz ccon lo cual se van completando
con información cada uno de los elementos unitarios de ella (pixeles). Una vez completada esta
adición de información a la matriz, se continúa con el siguiente perfil, obtenido en una
orientación distinta que el perfil anterior. De esta forma la información aportada por este nuevo
perfil proyectado se suma a la información aportada por el perfil anterior, modificando los
valores de los distintos elementos de la matriz. Este proceso se repite has completar los N
perfiles disponibles. A medida que se va adicionando más perfiles, la imagen reconstruida va
adquireindo mayor semejanza con el objeto en estudio. El proceso de proyección de los perfiles
en la matriz de reconstrucción es lo que se denomina “retroproyección”.

Figura 8: Imagen TC generada a partir del método de Retroproyección

Sin embargo, este proceso no está exento de complicaciones. Si observamos la imagen


entregada por el proceso de retroproyección, vemos que los bordes de la figura no se ven
nítidos, es decir, la imagen entregada por la retroproyección es borrosa. Este defecto del
proceso puede atenuarse mediante la inclusión de otro proceso denominado “Convolución”, que
consiste en términos generales en la aplicación de un filrtro preestablecido a cada perfil de data
obtenido, modelándolo de tal forma de reducir la borrosidad producida en el proceso de

93
retroproyección. ¿En qué consiste esto? Debemos recordar que toda curva representada en un
gráfico tiene su equivalente en una expresión matemática, y este es el caso también de los
perfiles de data. El proceso de convolución consiste en “multiplicar” cada uno de estos perfiles
de atenuación (cada una de estas curvas o ecuaciones matemáticas), punto a punto, por otra
curva de características propias, determinada como una fórmula matemática específica de
acuerdo al efecto que se desea generar en la imagen, obteniéndose un nuevo perfil que
podemos denominar como “filtrado” y que es el que efectivamente se retroproyecta sobre la
matriz de reconstrucción. En la siguiente imagen se observan disntos tipos de filtro, también
llamados kernel de convolución.

Figura 9: Filtros de Convolución Kernel. Estándar, de Suavizado (Smoothing) y de Realce de


Bordes (Edge Enhancing)

De esta manera, a partir de un perfil de atenuación original, luego de ser “filtrado” en el


proceso de Convolución, se obtienen nuevos perfiles, que luego de pasar por la unidad de
procesamiento de datos, van a ser representados en la imagen tomográfica con determinadas
características, que dependen de la selección del tipo de filtro que el operador desee utilizar. Si
se quiere suavizar los bordes de las imágenes y en cierta medida enmascarar el ruido presente
en la imagen, se recomienda utilizar un filtro de suavizado o smoothing. Si se quiere realzar los
bordes de las estructuras de la imagen y mejorar la resolución en el plano de la imagen, muy
utilizado para evaluar tejido óseo, se recomienda utilizar un filtro de realce de bordes o edge
enhancing. A este proceso de retroproyección y convolución se le denomina, Retroproyección
Filtrada.

94
Figura 10: Compararción del resultado en imagen del uso de la convolución en TC.

95
Figura 11: Pasos en la técnica de Retroproyección Filtrada

Las principales desventajas de este método es la propagación de artefactos y la alta sensibilidad


a la manifestación de ruido.

A modo de resumen, los pasos durante el proceso de retroproyección filtrada son:

1. Obtención de los perfiles de data para cada orientación alrededor del paciente.
2. Se obtiene el valor de Logaritmo natural de la relación entre la intensidad del haz previo
al paciente y la intensidad registrada por el sistema de detección-
3. Al perfil de estos valores logarítmicos se les aplica el filtro o kernel de convolución
previamente seleccionado por el operador.
4. Los perfiles filtrados son retroproyectados sobre la matriz de reconstrucción.
5. Las distintas contribuciones aportadas por cada perfil son sumada en cada uno de los
elementos de la matriz de reconstrucción.

96
Reconstrucción en TC Helicoidal

Debido al avance continuo de la camilla del paciente durante la rotación del sistema tubo-
detector, se genera data de manera inconsistente para utilizar directamente en el proceso de
reconstrucción. Ninguna sección del paciente es irradiada en los 360º, por lo que no se dispone
de toda la información necesaria para representar esa sección en la imagen. Si se intenta
reconstruir un corte tomográfico con esta información inconsistente el resultado es una imagen
con presencia de artefactos de movimiento.

Figura 12: Se observan 2 cortes tomográficos de un fantoma oval. En (a) se observa una
imagen sin corrección helicoidal, y en (b) una con corrección.

Para solucionar esta complicación se utilizan algoritmos de interpolación que permiten producir
un set de data útil para reconstruir un corte tomográfico. Según Kalender la llamada
interpolación lineal es la aproximación más sencilla a esta solución. Dos algoritmos de
interpolación se utilizan en TC helicoidal monocorte: Interpolación lineal en 360º e Interpolación
lineal en 180º.

97
Figura 13: Esquema que representa el espiral de información que se obtiene durante la
adquisición de un barrido helicoidal.

98
Figura 14: Concepto de interpolación en TC helicoidal

Interpolación lineal en 360º

Este algoritmo fue utilizado en los inicios de la TC helicoidal. A través de este proceso, la data
faltante necesaria para reconstruir un tomográfica es interpolada desde puntos de información
“real” a 360º de distancia como se muestra en la figura. El problema fundamental de este
algoritmo es la calidad de imagen resultante, la que se ve deteriorada debido a que produce un
ensanchamiento del perfil de sensibilidad de corte.

99
Figura 15: Esquema de algoritmo de interpolación lineal en 360º.

Interpolación lineal de 180º

Este algoritmo mejora la calidad de imagen con respecto al algoritmo de interpolación de 360º
debido a que utiliza puntos de información que se encuentran más cercanos al plano de
reconstrucción de la imagen. En este algoritmo de interpolación utiliza puntos de información
real alejada tan solo 180º del plano de imagen a reconstruir, con lo que el perfil de sensibilidad
de corte mejora el perfil de sensibilidad de corte y por lo tanto la calidad de la imagen.

100
Figura 16: Esquema de algoritmo de interpolación lineal en 180º.

Reconstrucción en TC Multicorte

Con la introducción de la tomografía computada multicorte debido a la disposición del sistema


de detección y su longitud en el eje Z, resulta en un cambio de la geometría del haz con
respecto a la TC monocorte. Mientras el haz en TC monocorte tiene una geometría denominada
como haz en abanico (Fan-beam geometry), en TC multicorte aumenta la divergencia del haz
en el eje z y por lo tanto se obtiene una geometría más amplia en este sentido, denominada
comúnmente como haz en cono (Cone-beam Geometry). Esto trae consigo un nuevo
inconveniente, debido a que no todos los rayos pasan por el plano de la imagen, en efecto,
rayos hacia la periferia del haz pueden pasar bastante lejos del plano de la imagen que se
desea reconstruir. De la misma manera, la posibilidad de representación incorrecta de
estructuras debido a esta divergencia del haz en el eje z, usualmente denominado artefacto de
cono, añade otra complicación al uso de la TC multicorte. La solución de estos inconvenientes
hizo que los algoritmos necesarios para la reconstrucción de la imagen fuesen notoriamente
más complejos que los utilizados en la técnica monocorte. El proceso de reconstrucción utilizado
en los equipos de TC multicorte es llamado de forma genérica como Reconstrucción en Haz de
Cono (Cone Beam Reconstruction). Uno de los más utilizados en este ámbito es el llamado
Algoritmo Feldkamp. La idea básica de este algoritmo es realizar un proceso de filtración de la
data obtenida en el detector fila por fila, seguido por un proceso de retroproyección en 3
dimensiones, es decir, sobre una matriz de reconstrucción volumétrica. Existen otros como el
llamado Interpolación Filtro Helicoidal con “corrección de cross-over” y el llamado Advanced
Single-Slice Rebinning que constituyen alternativas de reconstrucción en TC multicorte. Los
recursos matemáticos para explicar en detalle estos algoritmos escapan a los propósitos de este
curso.

101
ESTADO ACTUAL DE LOS AVANCES EN TOMOGRAFÍA
COMPUTADA MULTICORTE
T.M. José Aguilera V.

Sin lugar a dudas, la introducción de la tomografía computada Helicoidal Monocorte a principios


de los años 90 revolucionó la técnica de obtención de imágenes por CT, permitiendo adquirir por
primera vez un volumen de información sin el riesgo de perder registros de la estructura en
estudio. Sin embargo esta técnica en la rutina diaria presenta varias limitaciones como:

• Baja cobertura del detector en el eje Z


• Sólo se logró resolución isotrópica en rangos de exploración muy limitados
• La resolución espacial en el eje longitudinal del paciente se ve afectada en estudios que
requieren de largas exploraciones

La introducción de la técnica helicoidal Multicorte en 1998, específicamente el equipo de 4


canales de detección, resolvió gran parte de estas dificultades, apreciando las siguientes
ventajas:

• Un mayor volumen anatómico pudo ser adquirido con una simple adquisición
• Mejora considerablemente la resolución isotrópica
• Mejora la velocidad de adquisición
• Utiliza de mejor forma la energía de los rayos x
• Permitió reducir los espesores de corte
• Generó la posibilidad de realizar nuevos estudios como angioCT

102
Posteriormente, la introducción del Tomógrafo computado de 16 canales de detección permitió
la adquisición de rutina con resolución espacial submilimétrica. Esta tecnología abrió nuevas
posibilidades, como:

• Diagnóstico de accidentes cerebrovascular isquémico, mediante la evaluación de los


vasos que irrigan el cerebro
• La mayor cobertura del detector mejoró la detección de embolias pulmonares centrales y
periféricas, incluso en pacientes con dificultades para cooperar
• Se destacaron los resultados de la exploración cardiaca producto de la mejora en la
resolución temporal y espacial (Los tiempos de rotación del gantry alcanzaron los 0.375
segundos

En el año 2004 surgen los Tomógrafos Computados de 64 canales de detección y son lanzados
al mercado realzando dos conceptos, volumen y resolución.

Philips y Toshiba promueven el concepto de volumen, aspirando a aumentar aún más la


velocidad de cobertura de volumen con 64 filas de detectores en lugar de 16, sin cambiar los
parámetros físicos del Tomógrafo de 16 cortes.

Siemens persigue el concepto de resolución, usando 32 fila de detectores en combinación con


un doble muestro en el eje Z. Una refinada técnica que mueve periódicamente el punto focal en
la dirección z, para adquirir simultáneamente 64 cortes superpuestos. El objetivo es aumentar
la resolución longitudinal y reducir los artefactos espirales independiente del pitch (Artefacto de
molino de viento)

103
La introducción de la generación de Tomógrafos Computados de 64 cortes, hizo posible
experimentar las siguientes ventajas:

• Estudios angiográficos en fase arterial pura, incluso en rangos anatómicos extensos


• Facilitan los estudios de emergencia, ya que por ejemplo, todo el tórax (350mm) pueden
ser escaneados con resolución submilimétrica en aproximados 6 segundos y de esta
forma evaluar un tromboembolismo pulmonar
• La resolución espacial y temporal que ofrece este sistema de 64 cortes, permitió una
mejor cuantificación y seguimiento de enfermedades, relacionadas con estenosis y
perfusión.
• La mejor resolución temporal, producto de rotaciones del gantry de 0.33 segundos,
robusteció los estudios cardiacos, logrando buenos resultados a frecuencias cardiacas

104
mas altas

La experiencia clínica con los Tomógrafos computados de 64 cortes indica que la mayoría de los
problemas que presentaban las generaciones previas de Scanner han sido resueltas, el tiempo
de exploración, uno de los factores que en el pasado impulsaba a incrementar la cobertura del
detector, ya no es un problema para los exámenes de rutina, incluso en muchos casos la
velocidad de la camilla es reducida para permitir la correcta distribución del medio de contraste.

Sin embargo, pese a que los Tomógrafos Computados estándar de 64 canales presentan una
alta precisión en el diagnóstico de estenosis coronaria, la calidad de imagen puede afectarse en
ciertos pacientes. Características como frecuencias cardiacas altas o irregulares, alto contenido
de calcio y un alto índice de masa corporal, pueden reducir la precisión del diagnóstico. Esto
puede atribuirse a:

• Resolución temporal insuficiente


• Artefactos provocados por la falta de registro
• Artefactos de volumen parcial
• Artefactos de endurecimiento del Haz
• Alto nivel de ruido en la imágenes

Para resolver las limitaciones clínicas del sistema de 64 cortes, existen en el mercado distintas
soluciones que han implementado los tomógrafos de última generación, algunos han
concentrado sus esfuerzos en mejorar la resolución espacial, otros han implementado
generadores de rayos x mas potentes, nuevos métodos de reconstrucción de imágenes. Otra
área de desarrollo ha sido aumentar la cobertura en el eje Z por rotación, a modo de obtener
imágenes en pocos latidos del corazón, reduciendo los artefactos por falta de registro.

Philips Brillance ICT

Presenta una configuración de 128x0.625mm, con cobertura en el ejeZ de 80mm, incorpora la


tecnología de punto focal dinámico en el plano XY y punto focal inteligente en el eje Z,
aumentando la resolución espacial en los tres planos incrementando el número de imágenes
obtenidas a 256. Posee una matriz de reconstrucción estándar de 512x512, también puede
utilizar una matriz de 768x768 y 1024x1024 para mejorar la resolución espacial y desplegar
imágenes de alta resolución. La máxima velocidad de rotación de su Gantry es 270
milisegundos y el nombre comercial de la reconstrucción iterativa que ofrece se conoce como
IDOSE.

105
Somatom Definition Flash

Este sistema está equipado con 2 tubos de rayos y sus 2 sistemas de detección
correspondientes. Ambos se encuentran montados en un Gantry rotatorio ubicados con un
ángulo de 95° entre ellos. Ambos tubos pueden trabajar a diferentes voltajes para obtener dos
energías distintas (Dual Energy). Su configuración es de 64x0.6mm, logrando una cobertura
total en el eje Z de 38.4mm. Con la utilización de su técnica Flying Focal Spots en el los tres
ejes, logra incrementar la resolución espacial 3D y 128 imágenes por rotación. La máxima
velocidad de rotación de su Gantry es 270milisegundos y el nombre con que se conoce
comercialmente la reconstrucción iterativa que utiliza es IRIS (Iterative Reconstruction in Image
Space)

106
Toshiba Aquilion One Vision Edition

Tiene una configuración de 320x0.5mm, logrando una cobertura total en el eje Z de 160mm,
permitiendo la obtención de imágenes de órganos completos como el corazón y cerebro en una
sola rotación. Emplea algoritmo de reconstrucción 3D, ConeXact, logrando la obtención de 640
imágenes por rotación. La máxima velocidad de rotación de su Gantry es 275 milisegundos y el
nombre comercial de la reconstrucción iterativa que utiliza es conocida como AIDR 3D (adaptive
iterative dose reduction)

107
Esquema de comparación de configuración de matrices de detección

La guerra de los slices, dónde se discutía quién ofrecía la mayor cobertura, es posible

108
comprender a través de la siguiente imagen, en donde Toshiba despliega la evolución de sus
matrices de detección, hasta llegar a su equipo de elite Aquilion One Vision Edition.

Respecto a la resolución, la tecnología de doble punto focal, acuñada en sus inicios por
Siemens, hoy se encuentra incorporado en casi todas las marcas. De ahí que las discusiones
comerciales que se generan para poder ofrecer sus productos pierden validez, ya que ambos
aspectos, mayor cobertura y mejor resolución en el eje z son importantes.

109
Otro de los avances que han incorporado los últimos tomógrafos Computados es la adquisición
con Energía Dual. Esta característica se refiere a explorar la estructura anatómica con dos
energías, una de 80KV y otra de 140KV. Para ello, una de las empresas lo logra con su sistema
de doble tubo de Rx y otras con un sólo tubo de Rx, permitiendo obtener los siguientes
beneficios:

• Sustracción directa de hueso, incluso en regiones anatómicas complicadas


• Imágenes virtuales de hígado sin contraste
• Evaluación de defectos de perfusión pulmonar
• Caracterización por separación de materiales como iodo/calcio, iodo/agua o agua calcio
• Cuantificar la litiasis renal, logrando diferenciar si se trata de una piedra con contenido
de acido úrico o predominantemente cálcica
• Diferenciación entre placas duras y contraste endovenoso
• Reduce artefactos, que se producen con las prótesis metálicas en la evaluación de
cadera, rodilla y columna

En general se espera que la Dual Energy impacte positivamente en una mejor caracterización
de las enfermedades, ya que esto evidentemente entrega mayor información cuantitativa.

110
Discovery 750 HD (General Electric))

Presenta una configuración de 64 x 0.625mm, con tecnología de doble muestro logra obtener
128 imágenes por rotación. Gracias a su tecnología Dual Energy, el sistema puede adquirir
imágenes CT usando diferentes niveles kV en la misma región anatómica de un paciente en una
sola rotación de una sola fuente. Las diferencias en la dependencia de la energía del coeficiente
de atenuación de los diferentes materiales proporcionan información sobre la composición
química de los materiales del cuerpo.

111
Mejoras en la metodología de reconstrucción se ven reflejadas en la incorporación de la
reconstrucción iterativa que ha permitido disminuir las dosis considerablemente, extrayendo el
ruido por estadística de fotón y modelado de ruidos de objetos.

En las diferentes marcas este tipo de reconstrucción tiene nombres comerciales característicos,
pero sin lugar a dudas, permiten una disminución de la dosis de al menos un 50% manteniendo
la calidad de imagen. Junto con ello, la automodulación de corriente, kilovoltaje, por
electrocardiograma, mejoras en los algoritmos de reconstrucción, mayor eficiencia del sistema
de detección de la radiación, han contribuido a una reducción de dosis considerable. A modo de
ejemplo, una angiocoronaria por Tomografía Computada es factible realizar con dosis menor a 1
mSv versus los 15 mSv que se entregan en los Tomógrafos de 64 canales con reconstrucción
convencional.

Finalmente el avance en el sistema computacional ofrece actualmente configuraciones que


favorecen los procesos de rutina y flujo de trabajo, lo que ha permitido una mayor rapidez en la
reconstrucción de la imagen y mayor confiabilidad, las unidades centrales de procesamiento de
cuatro núcleos soportan perfectamente la reconstrucción iterativa, sistema de multitareas hacen
que la labor del tecnólogo médico sea más eficiente y que invierta menos tiempo en actividades
que se encuentran automatizadas y personalizadas. La incorporación en los equipos de diversos
programas que integran soluciones para el análisis de las imágenes, como análisis vascular,
neurológico y cardiaco, facilitan enormemente el trabajo, disminuyendo los tiempos en la
obtención de un diagnóstico.

112
113
CALIDAD DE IMAGEN EN TOMOGRAFÍA COMPUTADA
Autor: T.M. Daniel Castro Acuña, MSc.

Introducción.

La calidad de imagen es un concepto genérico que se aplica a todos los tipos de


imágenes. Se aplica a la fotografía, la televisión y por supuesto a las imágenes
médicas. En esta última, hace referencia por lo general a una noción subjetiva de la
utilidad de la imagen para realizar un diagnóstico. De manera más concreta, la calidad
de imagen se puede definir como un conjunto de características que indican la fidelidad
con que una imagen representa las cualidades del objeto observado. En tomografía
computada en particular (en adelante TC), el tema central está enfocado a la precisión
con que el sistema reproduce el objeto en estudio, y se refleja en la exactitud con que
la distribución de las características del objeto se corresponden con la distribución de
los coeficientes de atenuación en la imagen. La calidad de imagen puede objetivarse y
medirse de manera cuantitativa. En TC las principales características o parámetros
para evaluar la calidad de imagen son:

• Números Hounsfield: Uniformidad y Linealidad.


• Ruido.
• Resolución Espacial (o de Alto Contraste).
• Resolución de Contraste (o de Bajo Contraste).
• Resolución Temporal.
• Artefactos.

En el presente documento describiremos cada uno de estos parámetros.

Números Hounsfield: Uniformidad y Linealidad.

Los Números o Unidades Hounsfield (UH) constituyen la representación en un TC de las


características de atenuación (coeficiente de atenuación lineal) de los distintos tejidos
del cuerpo humano, basadas en una escala relativa que posee como centro las
características de atenuación del agua pura. Esta escala se define en base a dos
valores que son fijos. Por definición el valor de UH del agua es 0, y para el aire es -
1000, este último debido a que su valor de coeficiente de atenuación lineal se
aproxima a 0. Ambos valores se establecen en cada equipo de TC para cada valor de
kV y filtración de haz disponible.

Para evaluar los parámetros de uniformidad y linealidad debemos disponer de un


fantoma que solo contiene agua en su interior, distribuida de manera uniforme, y al
cual realizaremos un corte tomográfico. Si el fantoma es absolutamente uniforme en
su composición y el TC representa de buena manera esta condición, los valores de UH
en distintos puntos de la imagen tomográfica de ese fantoma debiesen mantenerse en

114
su valor 0, es decir, sin variaciones. A esta característica denominaremos
Homogeneidad o Uniformidad de UH. Lógicamente esta condición no es absolutamente
perfecta, y por lo tanto existe un cierto grado de variación que se puede considerar
aceptable. Si se realiza una región de interés (ROI: región of interest) en la imagen
tomográfica del fantoma, que contenga un número determinado de pixeles en su
interior, se debe observar que el valor promedio de UH en ese conjunto de pixeles
debe ser 0, con una desviación de ±4 UH de tolerancia. Si realizamos esta ROI en
distintos puntos de la imagen del fantoma, se debe esperar que no exista una
variación entre el promedio de ellos mayor a ±2 UH.

Figura 1: Medición de
uniformidad de UH en
fantomas de agua cilíndricos
de distintas dimensiones. Se
entrega para cada uno los
valores de promedio y
desviación estándar de cada
ROI indicado. Se puede notar
que los valores promedio son
cercanos a O UH.

La linealidad por su parte es una característica general que se espera tenga un buen
sistema de medición de cualquier clase. En TC en particular, implica que un cambio en
cualquier variable de entrada al sistema, por ejemplo, el coeficiente de atenuación
lineal, debe reflejarse de manera equivalente en la variable de salida, en este caso el
valor las UH. Como regla general podemos decir que si el cambio de coeficiente de
atenuación lineal es está dado por un determinado factor c, el cambio en UH debe
expresarse en base al mismo factor, es decir, el cambio c*µ debe reflejarse como c*UH
en la imagen. Las diferencias en el coeficiente de atenuación pueden ser causadas por
efecto de las diferencias en la densidad de los tejidos o diferencias en el número
atómico, estas últimas afectadas por la energía del haz; a las características del
detector entre otros; o por una combinación de ambas.

Los factores que determinan el factor de cambio de µ dependen de manera importante


de la composición del espectro del haz de rayos X, por lo que en general no se
considera pertinente evaluar en TC. Sin embargo, se han llevado a cabo distintos
intentos de crear herramientas de medición adecuadas. Las más antiguas datan de
1977, propuestas por la AAPM (Asociación Americana de Física Médica), pero que
adolecían de falta de rigor. Actualmente se pueden obtener fantomas con insertos que
poseen distintas densidades de masa, pero manteniendo constante su coeficiente de

115
atenuación másico, y que son utilizados por los distintos fabricantes para evaluar
linealidad.

Ruido.

El ruido se refiere a la incertidumbre en la medición de un valor, y en TC se representa


como la variación de valores de UH en un medio homogéneo. Estas variaciones se
deben en gran medida a fluctuaciones estadísticas, principalmente de la cantidad de
fotones de rayos X registrados en el detector del TC, motivo por el cual se le denomina
frecuentemente “ruido o moteado cuántico”. Otras fuentes de error, intrínsecas al
equipo, suelen ser de menor importancia. Los errores de medición de la intensidad
necesaria para el cálculo de coeficientes de atenuación se propagan a través del
proceso de reconstrucción de la imagen, y finalmente son visibles en esta.

Figura 2: Se observan distintos tipos de ruido. (a) Ruido en un fantoma de agua


reconstruido con filtro estándar. (b) con filtro óseo. (c) Ruido añadido con distribución
normal.

El ruido puede reconocerse en la imagen como una variación aleatoria de los valores
de UH (y por ende de valores de gris), lo que puede cuantificarse. El parámetro
asociado a la evaluación de ruido es denominado por algunos autores como Ruido de
Pixel (pixel noise). Se estima como la desviación estándar del valor en UH de cada uno
de los pixeles agrupados en una ROI situada en una imagen homogénea, relativa al
valor promedio de ellos. Esta imagen homogénea se obtiene normalmente utilizando
fantomas llenos con agua de manera uniforme.

116
Figura 3: Ubicación de la ROI
para determinación del ruido de
pixel en un fantoma de agua.

El nivel de ruido aumenta al registrarse en el detector menos fotones de rayos X, lo


que aumenta las fluctuaciones estadísticas. Esta disminución en el número de fotones
registrados puede deberse a una alta atenuación del haz en el paciente, bajos valores
de corriente de tubo (mA) o producto corriente-tiempo (mAs), o al uso de menores
espesores de corte. Un ejemplo de esta situación es la adquisición de imágenes de
pacientes con evidente sobrepeso, los que atenúan fuertemente el haz de rayos X, y la
pequeña transmisión resultante genera un pobre registro en el detector.

También puede incorporarse ruido a la imagen durante su proceso de reconstrucción.


El uso de determinados filtros de realce de la imagen o kernel pueden afectar el nivel
de ruido que se aprecia en la imagen. En específico, filtros o kernels de aumento de
resolución (Ej. Para evaluación ósea, en ocasiones denominado algoritmo óseo)
tienden a aumentar el nivel de ruido en la imagen, mientras que filtros de “suavizado”
de la imagen tienen el efecto contrario.

En general el moteado cuántico afecta de manera importante la visibilidad y


detectabilidad de imágenes de bajo contraste. Debido a su relación con la cantidad de
fotones que se registran en el detector, el ruido cuántico tiene una relación directa con
la dosis de radiación que recibe el paciente, y por supuesto, está relacionada
directamente con la selección de los parámetros de adquisición. Debe siempre existir
un balance entre el nivel de ruido requerido para hacer un diagnóstico preciso, y la
mínima dosis de radiación posible para un determinado estudio en TC.

117
Figura 4: Efecto del ruido dependiente de la dosis de radiación sobre la detectabilidad
de estructuras de bajo contraste. (a) Imagen obtenida con alta dosis. (b) Imagen
obtenida con muy baja dosis. Observe la dificultad para detectar las imágenes de bajo
contraste y pequeñas dimensiones en la imagen.

Resolución Espacial.

La resolución espacial describe la capacidad de un sistema de imagen para desplegar


detalles finos de forma separada. Se determina por lo general para estructuras de alto
contraste con el objetivo de eliminar la influencia del ruido en su determinación. Es por
este motivo que también es conocida como Resolución de Alto Contraste.

En TC a diferencia de radiología convencional, es necesario distinguir 2 tipos de


resolución espacial: la resolución espacial en el plano de la imagen (habitualmente
definido por las coordenadas x e y), y la resolución espacial en el eje longitudinal del
cuerpo (habitualmente definido por la coordenada z). Cada una de estas resoluciones
depende de distintos factores, los que analizaremos a continuación.

• Resolución en el plano de la imagen (x/y).

Esta resolución depende principalmente de condiciones geométricas, que pueden


asimilarse a lo que sucede en radiología convencional. Sin embargo, se ve afectada
igualmente por los filtros de realce o kernels aplicados durante el proceso de
reconstrucción de la imagen. Los principales factores geométricos que pueden afectar
este tipo de resolución espacial son:

• Tamaño del foco.


• Geometría del TC.

118
• Espaciamiento entre los elementos y apertura del detector.
• Movimiento del foco durante la medición.

En específico el tamaño de foco y la apertura del detector contribuyen a la generación


de borrosidad en la imagen (blurring). Puntos focales de mayores dimensiones
producen zonas de penumbra de mayor longitud, que afectan la visibilidad de los
bordes de las estructuras y por lo tanto un incremento borrosidad en la imagen lo que
reduce la posibilidad de resolver estructuras muy cercanas. En el caso de la geometría
del TC, por ejemplo las distancias foco-isocentro y detector-isocentro, tienen impacto
en la resolución espacial debido a su influencia sobre las zonas de penumbra, que
ocurre de manera análoga a lo que sucede en el caso de la radiología convencional. El
movimiento del foco durante el disparo, utilizado por varios tubos de rayos X utilizados
en tomógrafos actuales, contribuye a la reducción de la borrosidad de la imagen debido
a la optimización del muestreo de la señal, y tiene influencias sobre la RE en el plano
de la imagen como en el eje longitudinal.

En vista de estas consideraciones, el TM tiene solo limitadas posibilidades de influir


directamente sobre esta resolución espacial, y su injerencia radica principalmente en
las opciones que le entrega la selección de los distintos kernels de convolución
utilizados en el proceso de reconstrucción de la imagen. Los filtros enfocados al estudio
de estructuras óseas o kernels de valores altos reducen la borrosidad de la imagen,
mejoran la visibilidad de los bordes de las estructuras, y por lo tanto incrementan la
resolución espacial y la posibilidad de evaluar detalles finos. Por el contrario, filtros de
“suavizado” producen el efecto contrario y por lo tanto reducen la resolución espacial
en el plano de la imagen.

Figura 5: Efecto del filtro de convolución en la resolución espacial en el plano. (a)


imagen procesada con kernal estándar. (b) imagen procesada con kernel óseo.

La resolución espacial en el plano puede cuantificarse por diversos métodos, que


podemos clasificar en directos e indirectos. Entre los métodos de medición directos
encontramos el uso de patrones de pares de líneas o barras dispuestos en fantomas,
como el de la figura 5. Su aplicación tiene la ventaja de ser simple de realizar e

119
interpretar. Sin embargo, poseen una condición de subjetividad determinada por la
capacidad del observador para resolver distintos grupos de pares de línea. Para
solventar esta dificultad se utilizan los métodos indirectos de medición que incluyen
funciones matemáticas a partir de mediciones objetivas. Una función muy utilizada es
la llamada Función de Transferencia de Modulación o MTF (Modulation Transfer
Function), que tiene entre sus ventajas la posibilidad de ajustarse de mejor manera a
los requerimientos de chequeo de las condiciones del fabricante por ejemplo. Requiere
el uso de cálculos computacionales y el uso de fantomas que contienen delgados
alambres u otro material para realizar la medición inicial. El resultado de la aplicación
de la MTF nos permite obtener estimaciones objetivas del contraste con el cual
distintas frecuencias individuales (Ej. pares de línea por centímetro) son reproducidas
por el sistema en la imagen.

En la evaluación mediante MTF la resolución espacial se obtiene para un determinado


porcentaje del máximo valor de MTF posible (100%), es decir, la situación ideal en la
cual el sistema no incluye ningún tipo de distorsión del objeto en estudio al transferirlo
a la imagen, y se expresa en términos de frecuencia o pares de líneas. Según Kalender
la máxima resolución obtenible en un TC se produce al 10% del valor de MTF. En otras
palabras, es el valor de frecuencia (PL/cm) cuando el valor del contraste en la imagen
ha caído a un 10% del valor máximo idealmente posible de obtener. El valor de MTF se
puede ver notablemente incrementado al utilizar kernels de realce de bordes. Sin
embargo, el nivel de ruido en la imagen tiende a incrementarse paralelamente.

Figura 6: Curvas MTF para imágenes con distintos kernel. Se entrega el valor de
resolución espacial en pares de línea por centímetro (Lp/cm) para un valor de 2% de
MTF. Observe que para kernels de mayor resolución, el número Lp/cm es mayor para
el mismo porcentaje de la MTF.

120
Otro de los factores que afecta de manera importante la resolución espacial en el plano
de la imagen es el tamaño del pixel, que depende fundamentalmente del tamaño de la
matriz de reconstrucción de la imagen y del tamaño del campo de visión del objeto o
FOV (field of view), el cual es determinado por el TM. El tamaño del pixel se obtienen
mediante la razón entre el tamaño del FOV y el número de pixeles que contiene cada
arista de la matriz de reconstrucción de la imagen. Para una matriz cuadrada de
512x512, cada arista contiene 512 pixeles, por lo tanto, el tamaño de cada pixel
individual de la imagen se obtiene mediante la razón FOV (mm o cm) / Nº pixeles.

El FOV depende a su vez del campo de medición o FOM (field of measurement) o


campo de medición, que habitualmente alcanza los 50 cm en total y constituye el
máximo campo de visión disponible en el equipo. El FOV puede obtenerse si
conocemos el factor de zoom aplicado a la imagen (FOV=FOM/FZ). Cuando utilizamos
valores de FOV menores que el FOM, se aplica sobre la imagen un determinado factor
de zoom. Los requerimientos de resolución espacial están relacionados con este factor
aplicado. A medida que se utilizan factores de zoom altos se incrementa la resolución
espacial en la imagen. Es necesario marcar la diferencia que existe entre el factor de
zoom y la magnificación, la que normalmente puede aplicarse en la plataforma de
visualización de la imagen. Esta última solo involucra el aumento del tamaño de pixel
con el que se despliega la imagen en el visor, y por lo tanto tiene un efecto contrario a
la aplicación del factor de zoom sobre la resolución espacial. Habitualmente la opción
de magnificación se obtiene mediante el manejo a través del mouse controlador de la
estación de trabajo del TC.

121
Figura 7: Comparación de los efectos de la aplicación de factor de zoom y
magnificación sobre la resolución espacial de la imagen. Se observa un claro deterioro
de la resolución al aplicar magnificación (x5) en contraposición a la aplicación de un
factor de zoom de 7,5.

Finalmente cabe mencionar que si las dimensiones del pixel son menores que el
diámetro de la estructura más pequeña a resolver en la imagen, no se observará una
influencia negativa de la matriz en la resolución espacial de la imagen. En términos
generales se recomienda que el tamaño del pixel sea igual o inferior a la mitad del
diámetro mínimo de la estructura más pequeña a resolver, lo que se puede
manipularse optimizando el tamaño de FOV para la reconstrucción de la imagen, el
cual deberá estar enfocado a cada una de las aplicaciones diagnósticas en vista de las
estructuras a visualizar.

122
• Resolución en el eje longitudinal z.

La resolución en este eje es comúnmente descrita a través del llamado Perfil de


Sensibilidad de Corte o SSP (Slice Sensitivity Profile). Este perfil representa la
respuesta del sistema perpendicular al plano de la imagen. A diferencia de las
especificaciones de pares de líneas/cm utilizadas para caracterizar la resolución
espacial en el plano de imagen, el SSP describe una curva que refleja la respuesta del
sistema. En específico determina con que contribución a la señal un objeto
infinitesimalmente pequeño, ubicado en una determinada posición en el eje Z, será
representado en la imagen. Es decir, hipotéticamente un objeto ubicado dentro del
corte debiese producir una contribución del 100% a la señal y por lo tanto
representado íntegramente en la imagen, mientras que un objeto fuera del corte no
debiese contribuir a la señal (0%), o sea, no debiese ser representado en la imagen
tomográfica.

Figura 8: Esquema de un Perfil de


Sensibilidad de Corte con forma de
curva gaussiana identificando los
parámetros FWHM y FWTM.

Figura 8: Esquema de un Perfil de Sensibilidad de Corte con forma de curva gaussiana


identificando los parámetros FWHM y FWTM.

La curva de SSP se describe por medio de indicadores. Uno de ellos es el llamado


Ancho máximo a media altura o FWHM (Full With at Half Maximum) que hace
referencia al ancho de la curva al 50% del valor máximo de intensidad de señal. Este
parámetro nos permite representar la real sección que esta siendo escaneada durante
un corte tomográfico. Para poder evaluar la forma de la curva de SSP se utiliza otro
indicador, conocido como Ancho máximo a un décimo de la altura o FWTM (Full Width
at one Tenth of Maximum), que representa al ancho máximo de la curva al 10% del
valor máximo de intensidad de señal.

En TC el perfil de corte ideal debiese tener la forma de un rectángulo, sin embargo


posee deformaciones tanto en TC secuencial como en TC helicoidal, aportadas por el
movimiento de la mesa, que lo alejan de este modelo ideal. Se pueden encontrar para

123
igual valor de FWHM perfiles triangulares o incluso similares a curvas Gaussianas. En
TC helicoidal, la forma del SSP depende del factor de Pitch utilizado (afecta
principalmente el FWTM) y la interpolación utilizada para la reconstrucción de los
cortes (Ej. 360º o 180º). La forma que tenga el SSP determina de manera importante
la influencia de objetos pequeños en la imagen, lo que se ve reflejado en un valor de
contraste de la estructura en la imagen. Por ejemplo, cuando un objeto pequeño se
ubica solo en parte del corte (no en el centro por ejemplo) su contraste se ve reducido
en la imagen de acuerdo a su contribución en un particular elemento de imagen
volumétrico (voxel). Esto produce que en combinación con otras estructuras que
ingresen al mismo voxel a través del corte generarán lo que se denomina efecto de
volumen parcial, es decir, el valor del voxel será el resultado de todos las estructuras
que ingresaron en el, habitualmente un promedio. Este efecto puede ser reducido,
pero no evitado en un 100%, a través de la selección de espesores de corte más
pequeños.

Otro factor importante es la discriminación de cortes contiguos, lo que depende en un


alto grado de la forma del perfil. En un SSP idealmente rectangular, solo las
estructuras dentro del corte serán representadas con algún porcentaje de contraste en
la imagen, dejando sin contribución a las estructuras que estén fuera para un corte de
un determinado espesor nominal (determinado por el FWHM). En el caso de perfiles no
ideales, como los reales encontrados en los TC convencionales y helicoidales, los
objetos ubicados fuera del grosor nominal de corte igualmente pueden contribuir a la
imagen. Esto se debe a la contribución que puede tener una estructura en alguna de
las colas del SSP (ver figura 9), representadas por el FWTM, que en ocasiones puede
permitirnos observar objetos de alto contraste en la imagen que se encuentran fuera
del espesor nominal de corte, debido a su superposición con respecto a estructuras de
más bajo contraste que si se ubican dentro de este espesor, y que finalmente son
enmascaradas. Como ejemplo a esta situación podemos observar la búsqueda de
litiasis ureteral en PieloTC, o el efecto de volumen parcial en el caso de zonas
adyacentes a la base de cráneo y término de techos orbitarios en estudios de TC
cerebral (figura 10).

124
Figura 9: Influencia de la forma del Perfil de Sensibilidad de Corte en la obtención de
imágenes de objetos pequeños, y la ubicación de estos con respecto al corte. Se
observa el contraste obtenido en la imagen de acuerdo a la ubicación del objeto con
respecto al FWHM para 3 tipos de SSP en tres situaciones: ideal, TC convencional y TC
helicoidal (espiral).

El SSP puede también determinarse de manera objetiva a través de fantomas. Existen


2 fantomas utilizados para este objetivo: Los fantomas Ramp, que son los más
frecuentemente utilizados, y los fantomas Delta. Debido a la complejidad de su
aplicación, no son materia de este curso. La resolución espacial en el eje z fue por
mucho tiempo relegada a segundo plano durante el uso de la TC convencional. Con el
advenimiento de la TC helicoidal y el creciente uso de reformaciones en 3D, fue
ganando importancia su estudio y determinación.

a b
Figura 10: Ejemplos de volumen parcial debido a la selección de espesor de corte. En la

125
imagen (a) se observa una imagen hiperdensa en la corteza renal producto de una
litiasis ubicada en un corte adyacente. En la imagen (b) se observa una imagen difusa
hiperdensa producto del término del techo de la órbita derecha. Imágenes con este
efecto pueden también pueden observarse en la interface entre tejidos de densidad muy
distintas cuando el tamaño de pixel es grande.

Resolución Isotrópica

Con el avance de la tecnología helicoidal y multicorte, y la posibilidad de generar


reformaciones 3D útiles para el diagnóstico, se hizo evidente la necesidad de tener
iguales características de resolución espacial tanto en el plano de la imagen como en el
eje longitudinal, lo que permitiera imágenes reformadas en 3D de gran calidad. Esta
capacidad de mantener constante la resolución espacial en las tres dimensiones
espaciales se conoce como Resolución Isotrópica. Ha sido posible gracias a la
incorporación de elementos de detección en el eje z de cada vez menores dimensiones,
actualmente submilimétricas (0,5-0,6 mm), que permiten acercarse de manera
importante a los tamaños de pixel encontrados en gran parte de los estudios. Por
ejemplo, para un FOV de 250 mm y una matriz de 512x512, el tamaño de pixel es
aproximadamente 0,5x0,5 mm. Si se realiza la adquisición de una imagen con
elementos de detección de 0,5 mm que permitan generar espesores de corte de igual
longitud, nos enfrentamos a un voxel en el que todas sus aristas miden 0,5 mm de
longitud. Este voxel cúbico, se denomina Voxel Isotrópico.

Esta es una de las ventajas distintivas de los TC multicorte actuales con respecto a
equipos menos evolucionados (TC monocorte). Parte de las aplicaciones de estos
voxeles isotrópicos radican en mejores resultados de la imágenes generadas mediante
las técnicas de reformación como VRT, navegación endovascular, entre otros.

Figura 11: Geometría de voxeles isotrópicos con


iguales dimensiones en los tres ejes coordenados
(x, y, z). Esta es la condición ideal para
reformaciones de alta calidad en TC.

Resolución de Contraste

También llamada resolución tisular o de bajo contraste. Hace referencia a la capacidad


del sistema de distinguir objetos de bajo contraste con el fondo como separados, uno
de los desafíos más importantes de los métodos basados en imágenes seccionales.
Tiene mucha importancia en la discriminación de tejidos blandos en los que su
discriminación se basa principalmente en su densidad, y no depende de manera

126
importante de la energía de los fotones X. La resolución de contraste se ve afectada
principalmente por el nivel de ruido de la imagen.

La resolución de contraste se determina a través de fantomas que contienen objetos


de bajo contraste de diferentes densidades y tamaños. En TC se define para el objeto
más pequeño que puede observarse a un determinado nivel de contraste y dosis. El
nivel de contraste se establece por una diferencia porcentual ente coeficientes de
atenuación lineal. Una diferencia de contraste de un 1% se refleja como una diferencia
de 10 UH entre el objeto y el fondo (Ej. material de soporte del fantoma).

Figura 12: Test generado


computacionalmente para ilustrar la
dependencia de la visibilidad de objetos de
distintos tamaños en intensidades .

Determinar objetivamente la resolución de contraste de un sistema es un tema


complicado y generalmente sujeto a valoraciones de carácter subjetivo. Por ejemplo, si
solo se evalúa en base a detalles de bajo contraste, solo es posible evaluar
efectivamente la detectabilidad de los objetos, pero no la resolución del sistema en sí.
En el mercado se encuentran diferentes fantomas disponibles para evaluación de
resolución de contraste, pero que no están estandarizados y su resultados son muchas
veces dependientes en la composición del espectro de rayos X de cada TC. Estas
complicaciones hacen difícil reproducir exactamente la resolución de contraste
especificada por el fabricante.

127
Figura 13: Efecto de distintos niveles
de ruido sobre objetos de igual tamaño
y distinta intensidad y contraste con el
fondo. Se observa como los objetos de
menor intensidad y contraste se ven
primeramente afectados por menores
niveles de ruido en comparación con
los objetos de mayor intensidad.

Un parámetro útil para evaluar de manera más objetiva la resolución de contraste es la


llamada Relación Señal-Ruido o SNR (Signal to Noise Ratio), que en este caso relaciona
las diferencias en UH y el nivel de ruido de la imagen. En algunos textos y trabajos de
investigación aparece mencionada para esta aplicación específica como Relación
Contraste-Ruido o CNR (Contraste to Noise Ratio) haciendo alusión a la diferencia de
UH entre un objeto y el fondo versus el ruido presente en la imagen. La resolución de
contraste para objetos o estructuras de mayor tamaño son dependientes del nivel de
ruido de la imagen, y por lo tanto relacionado con la eficiencia en términos de dosis del
sistema. Para estructuras más pequeñas, la influencia de la borrosidad atenta además
contra este tipo de resolución, siendo necesario una mayor diferencia de UH con el
fondo por ejemplo para mantener la visibilidad de las estructuras.

Resolución Temporal

La resolución temporal ha aumentado notoriamente su importancia debido a la


aparición de nuevas aplicaciones como la CardioTC. En esta aplicación en específico el
objetivo principal es “congelar” el movimiento cardiaco. En términos simples, una
mejor resolución temporal se obtiene si el tiempo de escaneo o barrido es menor. El
desarrollo de la TC ha permitido reducir los tiempos de rotación. Con la aparición de la
TC helicoidal en 1998, se logró obtener tiempos de rotación inferiores a 1 segundo, con
la consecuente reducción de los tiempos de barrido también. Este hecho puntual trajo
consigo la posibilidad de realizar exploraciones de regiones anatómicas completas en
una sola apnea del paciente (Ej. TC de tórax) y una rama de estudios derivados de la
posibilidad de “seguir” un bolo de contraste endovenoso durante el barrido, la conocida
técnica de AngioTC. En el caso de la TC de tórax por ejemplo, el objetivo de obtener
una buena resolución temporal se refleja en la obtención de imágenes sin borrosidad
producto de la respiración del paciente. En el caso de la AngioTC, se refleja en lograr
una opacidad homogénea del vaso en estudio durante todo el barrido.

128
La resolución temporal se ve afectada principalmente por el tiempo de rotación, el
Pitch utilizado durante la exploración y obviamente el tiempo de barrido de la
exploración completa. Detalles al respecto serán revisados en el capítulo dedicado a
CardioTC.

Artefactos

Se pueden definir como una “parte” del contenido de una imagen que no tiene
contraparte en el objeto físico escaneado, el paciente. En TC, un artefacto puede
manifestarse como una falsa estructura, que en algunos casos puede incluso degradar
la calidad de la imagen obtenida. En TC existe una mayor tendencia a la aparición de
artefactos con respecto a la radiografía convencional debido a la mayor complejidad
del sistema, que por ejemplo involucra una gran cantidad de detectores y un complejo
sistema de reconstrucción de imágenes. Debido a esto, existen múltiples orígenes de
diversos artefactos que pueden observarse en la imágenes de TC. Según Barret y Keat,
los artefactos pueden agruparse de acuerdo a su origen en 4 categorías:

• Artefactos debidos a procesos físicos durante la adquisición de la DATA.


• Artefactos debidos al paciente, como el movimiento y la presencia de metales.
• Artefactos debidos al tomógrafo, principalmente a su funcionamiento.
• Artefactos debidos a las técnicas helicoidal y multicorte, producidos por el
proceso de reconstrucción de la imagen.

Detalles de las categorías de artefactos serán revisados en el capítulo dedicado a este


tema.

129
REFORMACIONES EN TOMOGRAFÍA COMPUTADA
T.M. Daniel Castro Acuña, MSc
T.M. Sandra Araya Leal, MSc

Introducción

La Tomografía Computada (TC) ha evolucionando en forma excepcional durante su


historia, pasando desde los primeros equipos con capacidades muy limitadas hasta los
modernos equipos actuales, capaces de obtener información en forma continua,
procesar imágenes en distintos planos e incluso con aspecto 3D.

El año 1998 se marca como un hito en el desarrollo de la TC con la aparición en el


mercado de la tecnología Multicorte, equipos capaces gracias a la incorporación de una
matriz de detectores de una obtener una mayor la cobertura de barrido y adquirir
grandes volumen de información en sólo segundos. Esta tipo de adquisición
volumétrica, permite entre otras cosas, realizar post-procesamiento avanzado de la
DATA obtenida, y la posibilidad de generar imágenes 2D reformadas en diferentes
planos, con apariencia 3D, capacidad de giro, sensación de profundidad, etc.

En la actualidad estas imágenes reformadas tanto 2D como 3D son consideradas no


tan sólo elementos adicionales a un examen TC, sino que muchas veces resultan
fundamentales para establecer un diagnóstico, tal es el caso de las reformaciones
obtenidas para estudios cardiacos, del tubo digestivo, el macizo facial, etc.

¿Reconstrucción o Reformación?

Previamente al desarrollo del tema es necesario efectuar la diferenciación entre dos


conceptos ampliamente utilizados en Tomografía Computada: Reconstrucción y
Reformación.

• Reconstrucción: Es un proceso, que específicamente en TC, se refiere a la


conversión de perfiles de DATA (proyecciones) en una imagen axial a través de
un algoritmo matemático.

130
• Reformación: Presentación de un conjunto o pila de imágenes producidas
previamente en un proceso de reconstrucción, habitualmente en una
orientación distinta a la original, sin alterar por lo general el voxel.

En TC las reformaciones toman lugar en la última etapa de la producción de imágenes


en TC, y constituyen en realidad mecanismos de postproceso de la imagen que nos
ayudan a resumir la información en ocasiones contenida en un gran número de
imágenes.

Figura 1:Etapas en el proceso de producción de una imagen en TC. Las reformaciones


forman parte de la manipulación de la imagen, y constituyen una forma de desplegar
la información necesaria para el diagnóstico.

A diferencia de otras técnicas de imagen como la RM, la TC está limitada a la


adquisición de imágenes en un plano transversal. Sólo en los casos de los estudios de
cabeza o extremidades se pueden adquirir estructuras en otras orientaciones debido a
técnicas especiales de posicionamiento.

Requisitos para efectuar Reformaciones

La formación de imágenes reformadas posee ciertos requisitos básicos del que


llamaremos “apilamiento” de cortes, cuyo uso es absolutamente dependiente de la
calidad final de la imagen. Entre estos tenemos:

• Adquisición de la DATA con la mayor Resolución Espacial en el eje Z


posible, para ello debe utilizarse una configuración de detección que involucre
el uso de elementos de detección de pequeña longitud, con el fin de obtener
espesores de corte finos, idealmente submilimétricos. Lo anterior está
condicionado y/o limitado por resistencia térmica del tubo de rayos X. En tubos
de baja disipación de calor no es posible adquirir un volumen de información
extenso con una configuración de detección pequeña debido al
sobrecalentamiento del tubo.

131
• Se debe emplear un pitch bajo, con el fin de obtener la DATA con la mayor
cantidad de redundancia posible. Esto nos permitirá contar con mayor
información de los distintos puntos del volumen, disminuyendo los efectos de la
borrosidad producto del porceso de interpolación en equipos helicoidales. En
general se recomienda una interpolación de 50% (pitch de 0.5) cuando se
buscan detalles finos (Ej. TC de oído). Sin embargo, deben considerarse los
efectos de la reducción del valor de pitch, principalmente la disminución de la
cobertura de la exploración y el incremento del tiempo total de barrido
(imporante para adquisiciones con uso de medio de contraste).

• Se debe contar idealmente con adquisición de vóxeles isotrópicos, es


decir que las dimensiones del vóxel sean idénticas en los tres ejes del espacio.
Para ello es importante considerar que un vóxel mirado desde arriba, o sea
desde la imagen axial, está determinado por las dimensiones del pixel
(dependiente del FOV y la matriz de reconstrucción), y en el otro sentido
(profundidad) está determinado por el espesor de corte (dependiente de la
configuración de detección). En este último aspecto tienen gran ventaja los TC
Multicorte actuales, pues poseen la capacidad de efectuar cortes
submilimétricos que se acercan en gran medida a las dimensiones del pixel de
la imagen axial.

Si se utilizan utilizamos espesores de corte mayores que alteren la isotropía del voxel,
las imágenes reformadas presentaran artefactos clásicos como bordes escalonados
(stair-step)y pixelamiento de la imagen.

Figura 2: Comparación de imagen sagital reformada en base a cortes de distintos


espesores. En la imagen de la izquierda se observa claramente el fenómeno de stair-
step. EN la imagen de la derecha se ve reducido este efecto debido al uso de espesores
de corte más pequeños como base para la reformación.

En resumen la isotropía del vóxel permite mantener la misma calidad de la imagen


axial en un plano diferente (igual resolución espacial) (figuras n°5 y n°6).

132
Figura 3: Efectos del uso de voxel isotrópico para reformación de imágenes. En el
caso de no utilizar voxeles isotrópicos la calidad de imagen se ve deteriorada en el eje
z de la imagen en comparación con el plano x/y.

Figura 4: Ejemplos de voxeles isotrópicos para distintas condiciones de FOV (field of


view). Observe que a medida que aumenta el FOV seleccionado las dimensiones del
voxel se incrementan en comparación de FOV de menores dimensiones. El espesor de
corte escogido debe estar en concordancia con ello para lograr una real isotropia del
voxel.

Tipos de Reformaciones.

Una reformación se efectúa en base a diversas técnicas, en donde también están


involucrados algoritmos y funciones matemáticas que nos permiten utilizar los datos
“apilados” y presentarlos de otra forma.

133
Las imágenes pueden ser presentadas tanto en dos dimensiones (2D) como en tres
dimensiones (3D). Este último, sin embargo, es un concepto relativo, ya que las
imágenes que se denominan 3D son realmente imágenes 2D con la apariencia de 3D,
lo que se logra mediante el manejo de diversos parámetros de la imagen como luz-
sombra, brillo, etc. que dan una apariencia de profundidad.

Según Kalender (2005) existen 2 grandes grupos de técnicas que nos permiten
clasificar las reformaciones en TC:

1. Técnicas que presentan imágenes 2D


2. Técnicas que presentan imágenes 2D con aspecto tridimensional

• 1.Técnicas que presentan imágenes 2D:

o 1.1 Reformación Multiplanar (Multi-PlanarReformation, MPR)

Dentro de estas herramientas se encuentra el proceso de Reformación Multiplanar, que


permite obtener imágenes con una orientación distinta a la original con la que se
adquirieron los datos, habitualmente perpendicular al eje longitudinal del cuerpo. Esta
nueva orientación puede ser sagital, coronal, oblicua, curva (CPR) o de trayecto libre.
Las imágenes reformateadas resultantes pueden tener un espesor variable,
facilitándose así la visualización y detección de defectos o características especiales de
estructuras u objetos de estudio.

134
Figura 5: Diversos planos de reformación de imágenes derivados de una inicial pila de
imágenes axiales (stack of axial images). Se observan algunas aplicaciones de estos
distintos planos.

Requisitos para la obtención de estas reformaciones es que el set de imágenes


adquirido sea “apilado” en forma secuencial es decir de la imagen 1 en adelante
correlativamente como lo muestra la figura6. Generalmente estas imágenes son
producidas por una interpolación del volumen de información en distintas
orientaciones, lo que resulta más sencillo además si no existen espacios en la “pila” de
imágenes.

Figura 6:Esquema que muestra como debe ser el ordenamiento secuencial de la “pila”
de imágenes secuenciales para la obtención de un volumen susceptible de ser
reformado.

Características de las Reformaciones MPR:

• Algoritmo rápido e interactivo que puede representar distintos planos arbitrarios


de una vez.
• Permite la realización de mediciones (distancias, diámetros, áreas, etc.)
• Permiten la visualización de estructuras que no pueden ser bien evaluadas en
imágenes axiales.
• Utiliza todo el volumen de datos adquirido.
• Su mayor utilidad clínica está dada por la rapidez en la obtención de diferentes
planos, lo que es fundamental en la evaluación inmediata de pacientes graves.
• Corresponde sólo a una visualización en dos dimensiones, por tanto no tiene
efecto de profundidad, es decir, sonimágenes planas.
• El uso de reformaciones MPR en planos curvos (CPR) tiene a su vez gran
utilidad para la demostración de estructuras tubulares como uréteres o vasos
sanguíneos. Sólo es importante hacer notar que la definición del trayecto es
efectuada por un operador del cual dependerá la que la imagen final represente
fielmente la estructura opatología estudiada).

135
Figura 7: Se muestra la reformación sagital y coronal obtenida desde un volumen de
imágenes obtenidas en el plano axial en un TC Abdominopelviano.

Figura 8: Se muestra la reformación coronal curva obtenida dibujando el trayecto del


uréter izquierdo en el plano sagital. La reformación permite demostrar claramente la
dilatación del uréter y la presencia de un cálculo a nivel de uréter distal.

• 2. Técnicas que presentan imágenes 2D con aspecto tridimensional

136
La representación de un volumen en una imagen 2D puede obtenerse de la proyección
de los vóxeles que forman dicho volumen en su superficie. Al realizar este proceso
puede que dichos vóxeles no se correspondan exactamente con los pixeles de la
pantalla en la cual se despliega la imagen reformada (Estación de trabajo), debido a
que esta matriz es distinta a la matriz a las de adquisición de la información y por
tanto a la de apilamiento de cortes. Para poder contrarrestar este efecto se realiza un
proceso denominado “muestreo de rayos” o ray casting. El ray casting consiste en
utilizar un “rayo virtual” que va de la pantalla hacia el volumen de información (pila de
cortes) de manera que la no correspondencia que existiees corregia por interpolación.
Si estos rayos virtuales se generan hipotética desde la posición de un observador, da
como resultado la percepción de profundidad.

Figura 9: Esquema que grafica la técnica de ray casting. A través de estos rayos
virtuales que atraviesan el volumen a reformar se proyecta información en la pantalla
de despliegue de la imagen. A la izquierda tenemos el volumen de información
completo. En la derecha se muestra como estos rayos virtuales (en rojo) proyectan
determinada información del volumen en la pantalla generando la imagen reformada.

Figura 10:Esquema que muestra la técnica de ray casting orientada desde la posición
del observador (Ej. TM). El valor que toma un pixel del monitor de la estación de
trabajo (en amarillo) se obtienen gracias a los puntos que forman los rayos virtuales

137
(en rojo). En ocasiones puntos del rayo no intersentan puntos con información del
volumen (en verde). En esos casos la información es obtenida a través de interpolación
desde puntos conocidos del volumen.

En resumen, lo que evalúa el operador en el monitor del equipo de TC es el valor que


se le asigna al pixel de la pantalla producto de las intersecciones de los rayos virtuales
con la información del volumen y las interpolaciones realizadas.

Existen diferentes técnicas basadas en este proceso:

• Representación de proyecciones.
• Representación de superficies.
• Representación de volúmenes.
• Representación de volumen con perspectiva: Endoscopía Virtual.

o 2.1. Técnicas de proyección.

El valor del pixel de la pantalla toma el valor de algún voxel que es intersectado por el
rayo y que posee alguna característica particular, por ejemplo, el pixelcon atenuación
(mayor valor de UH). Esta técnica en específico se denomina Proyección de
MáximaIntensidado MIP (Maximum Intensity Poyection). Por el contrario, si se escoge
representar el voxel con menor valor UH en el trayecto del rayo, en este caso tenemos
la técnica denominada Proyección de Mínima Intensidado MINIP. En resumen, lo que se
logra mediante estas técnicas es representar en el monitor el valor del voxel que
cumpla con una determinada condición, dejando fuera el resto de la información, la
que en consecuencia no será representada en la imagen final.

Figura 11:Esquema que representa la técnica MIP. Se observa a la derecha las


distintas densidades que componen un volumen de datos adquiridos y que intersectan
el paso de un rayo virtual. En esta caso en particular, se despliega solamente en el
monitor el voxel con el valor de UH mayor en el trayecto, puntualmente 8. A la
izquierda podemos observar un típico ejemplo de aplicación de la técnica MIP para
estudios vasculares.

Ventajas de la técnica MIP:

138
• Disponible de rutina.
• Rápido.
• Interactivo y manipulable.
• Efecto angiográfico, por tanto es de gran utilidad en estudios de AngioTC.

Desventajas de la técnica MIP:

• Se representa únicamente el voxel con mayor densidad a lo largo del rayo.


• Utiliza aproximadamente sólo el 20% de los datos contenidos en el volumen.
• Dos estructuras hiperdensas separadas a través de la dirección del rayo pueden
aparecer superpuestas.
• Carece efecto de profundidad.
• No se recomienda efectuar mediciones (Ej. Distancias, diámetros) sobre este
tipo de imágenes.

Figura 12: Comparación entre las técnicas MIP y MINIP.

2.2 Técnicas de Superficie.

2.2.1 ShadedSurfaceDisplay (SSD)

Es una técnica que se utiliza para representar superficies aparentes a partir de un


volumen de datos. Corresponde a la primera técnica de evaluación 3D aplicada al
ámbito médico en los años 70. En esta técnica de reformación el valor del pixel del
monitor corresponde al valor del punto del volumen más cercano a ella, sobre un cierto
valor umbral. Este umbral permite determinar cuánto de la imagen resultante se
refiere a la anatomía real.

La obtención de las imágenes de superficie supone una serie de etapas, las cuáles
muestra el siguiente esquema:

139
Figura 13: Pasos en el procesamiento mediante la técnica SSD.

La etapa de segmentación corresponde a la elección del rango de UH que permitirá


seleccionar determinados voxeles de superficie que serán desplegados en la imagen
final.

Figura 14: Se observa un set de vóxeles de superficie para los cuales se estable un
rango umbral (segmentación) desde 6 a 9. Este rango determina que voxeles serán
presentados finalmente y por lo tanto la imagen que será desplegada.

A continuación se presenta un set de imágenes que muestra el proceso de reformación


de superficie a través de SSD. En la imagen A con el valor umbral escogido es posible
apreciar la ropa que cubre a la paciente, mientras en las imágenes B y C, tras la
disminución de umbral, se observan la superficie corporal y estructura ósea
respectivamente.

140
Imagen A

Imagen B

141
Imagen C

Para darle un aspecto 3D a estas imágenes bidimensionales se utiliza una técnica de


sombreado(shaded) a través de una escala brillo que permite que los voxeles más
cercanos a la pantalla aparezcan más brillantes que el resto. Matemáticamente esto se
efectúa utilizando la denominada Ecuación de Phong, que simula el efecto de una
fuente luminosa virtual, es decir, se emula la iluminación de la escena y reflejo de la
luz, en donde los puntos más cercanos tendrán más brillo que los de ubicación
posterior:

Ecuación de Phong:

Ib: Intensidad de la luz ambiental


Rb: Reflectividad para luz ambiental
Id: Intensidad de una fuente puntual de luz
Rd: Coeficiente de reflectabilidad difusa de la superficie
Rs: Coeficiente de reflectividad especular
r: Distancia de visualización
k: Constante

142
Ventajas de la técnica SSD:

• Rapidez.
• Fácil manipulación.
• Buena sensación de profundidad.
• Flexibilidad en la rotación de imágenes (permite la realización de ejes
rotatorios).

Desventajas de la técnica SSD:

• Utiliza aproximadamente el10% de la data o menos.


• No provee información densitométrica (Ej. estructuras de densidad similar como
medio de contraste o calcificaciones se visualizan de igual forma).
• No es útil para evaluar estructuras con superficies poco diferenciadas.

2.3 Técnicas de Volumen

2.3.1 Volume Rendering Thresholding (VRT)

(Rendering: representación - Thresholding: umbral)

Corresponde a una técnica cuya aplicación inicial fue el cine, y que posteriormente, a
mediados de la década de los ochenta se traslada al ámbito de las imágenes médicas
por TC.

A través de ésta técnica, es posible crear imágenes con apariencia 3D, y al igual que
en los demás tipos de reformaciones (MIP, MINIP, MPR, CPR y SSD), no altera la
información contenida en los voxeles del volumen a reformar, sino que solamente se
utiliza con el fin de lograr nuevas representaciones de la DATA.

En términos generales la técnica Render corresponde a un proceso de cálculo complejo


destinado a generar una imagen 3D o secuencia de imágenes 3D. Esta técnica se
desarrolla con el fin de imitar un espacio tridimensional, formado por estructuras
poligonales, comportamiento de luces, texturas, materiales, simulando ambientes y
estructuras físicas verosímiles, tal cual se hace en la industria de gráficas de
computador. En ésta, cada representación 3D, depende de fórmulas matemáticas que
determinan para cada píxel, que porción de la DATA de la memoria debe ser exhibida
en la pantalla, y como esa porción debe ser desplegada para tener las mejores
representaciones espaciales. La renderización de un volumen consta de tres fases
básicas:

1.- Modelado.
2.- Composición de la escena.
3.- Render (formación de la imagen final).

Específicamente en las imágenes VRT obtenidas por Tomografía Computada cada


punto a lo largo del rayo virtual contribuye al valor final del pixel en la pantalla. Esta a
contribución puede oscilar entre un 100% a un 0% de opacidad, es decir, la

143
contribución de un voxel a la imagen reformada se refleja en un cierto grado de
opacidad o dificultad al paso de luz. Los valores de opacidad se correlacionan con el
valor del voxel(UH) a través de una función matemática. De esta forma, es posible
asignar un determinado porcentaje de opacidad a un determinado rango de UH.
Finalmente sólo se presentarán en la imagen reformada los voxeles que se encuentren
en el intervalo designado (threshold) y los voxeles fuera de este serán representados
con baja opacidad (transparentes).

Los parámetros de representación de una imagen VRTse aplican a todos los datos y
afectan la apariencia de la imagen a desplegar. Entre estos están el nivel y ancho de
ventana, la opacidad, el brillo y uso de color. En forma práctica la imagen VRT se
construye mediante la disposición de trapecios en el histograma que representa el
volumen de información total adquirido.

El histograma corresponde al despliegue de los todos los voxeles del volumen a


reformar y su correspondencia determinados valores de UH. Es decir, para un rango de
UH es posible saber cuántos voxeles existen. Sobre el histograma se coloca el trapecio
a través del cual el operador determina que rango de UH (y por tanto que cantidad de
voxeles correspondientes al rango UH seleccionado) que se representarán en la imagen
rendering, con qué grado de opacidad e incluso con un determinado color.

Figura 15: Trapecio para reformación VRT ubicado en histograma (Eje x: UH. Eje y:
Nº voxeles). La base del trapecio indica los datos con los que se trabajará para generar
imágenes VRT, es decir el rango UH que se incluirán. (Calhoun y cols., 1999).

144
Figura n°16: Diagrama que ilustra el efecto de los ajustes de ancho y nivel de
ventana con respecto al histograma de vóxel de un conjunto de datos. Los ajustes
alteran la atenuación de las estructuras demostradas en la reconstrucción 3D. Un
cambio en el ancho de ventana (la pendiente) altera el contraste de imagen, mientras
que un cambio en el nivel (desplazamiento en eje X) altera la inclusión y atenuación de
los vóxeles en la imagen resultante. (Adaptado de “Three-dimensional volume
rendering of spiral CT data: theory and method”, Calhoun y cols. 1999)

Figura 17: La altura del trapecio indica el porcentaje de opacidad con el que se
desplegarán las imágenes VRT. En la figura la opacidad del trapecio entre 500 y 1500
UH es de un 75%, en los extremos de éste (rango de 0 a 500 UH y de 1500 a 2000
UH) el promedio de opacidad es de un 25%.

145
Los cambios de longitud o pendiente de los lados del trapecio alteran la imagen de
varias maneras. La disminución de la pendiente del trapecio aumenta la escala de
grises de la imagen, mientras que el aumento de la pendiente aumenta el contraste de
la imagen. La parte superior del trapecio define los vóxeles que representarán un
tejido.

Figura 18: Esquema que representa a dos trapecios superpuestos, en la zona de


superposición se comparten las características de ambos.

En cuanto a la apariencia de las imágenes en VRT la opacidad tiene relación con el


grado en el cual las estructuras parecen estar más cerca o más lejos del usuario. A lo
largo de la dirección del haz, los voxeles más lejanos a la superficie tienen valores
menores de opacidad y los más cercanos valores mayores. De este modo, altos valores
de opacidad producen una apariencia similar a la representación de superficies,
mientras que los valores bajos de opacidad permiten que el usuario pueda "ver a
través de" las estructuras.

Figura 19: La imagen de a izquierda se observa con una opacidad de 100%. Muestra
la superficie del tubo digestivo el cual se encuentra por delante de la columna y por
tanto esta última se ve enmascarada. En la imagen de la derecha se observa el mismo

146
tubo digestivo con opacidad de 10% y por lo tanto de apariencia “transparente”
permitiendo observar la columna lumbar ubicada más posteriormente

El brillo afecta la apariencia de la imagen mediante el ajuste del valor de cada voxel
por el porcentaje de brillo seleccionado. Los cambios en el brillo no alteran el diámetro
aparente de las estructura.

Figura 20: La imagen de la izquierda tiene un brillo de un 100% versus la imagen de


la derecha con un brillo de un 10%. Como se puede apreciar, este parámetro no
modifica el tamaño aparente de las estructuras y es de manejo subjetivo por parte del
operador.

La asignación de color depende igualmente del operador y está determinada por el


número de trapecios ubicados en el histograma del volumen a reformar. Cada trapecio
que define un rango de UH puede tener un color diferente, así como también pueden
existir zonas de traslape entre dos o más trapecios generándose características de
color intermedias. Desde este punto de vista las imágenes VRT a diferencia de las SSD
aportan información densitométrica, ya que es factible representar estructuras de
diferentes propiedades físicas, diferente densidad (atenuación) con distinto color.

147
Figura 21: La imagen de la izquierda muestra una reformación SSD en donde se
despliega la superficie de la estructura anatómica, sin embargo pese a las diferentes
densidades de órganos y tejidos implicados, el SSD los representa como estructuras de
igual opacidad. Sin embargo, a través del VRT (imagen derecha) es posible diferenciar
las características de diferentes densidades de las estructuras contenidas en el
volumen reformado.

Ventajas de la técnica VRT:

• Emplea toda la data, de manera que es posible asignar colores, opacidades y


brillos a cada uno de los voxeles del volumen adquirido.
• Combina las ventajas de presentación de superficies y proyecciones
• Genera imágenes con mejor percepción 3D que otro tipo de reformaciones
• Aportan información anatómica y densitométrica.

Desventajas de la técnica VRT:

• Si bien no corresponde a una desventaja propiamente tal, es necesario


mencionar que las mediciones realizadas en VRT no son confiables y por tanto
no deben efectuarse cálculos de diámetro o ´reas mediante sobre este tipo de
imágenes, ya que el rendering y su unción de opacidad afectan de manera
importante la visibilidad y las dimensiones de las estructuras.

• Requiere mayores recursos computacionales. Para crear imágenes


tridimensionales en VRT se necesitan alta tecnología en cuanto a software y
hardware, es decir, es necesaria la implementación de computadoras mucho
más potentes para realizar este tipo de reformaciones a una velocidad
razonable. Esta desventaja, sin embargo, es algo ya prácticamente superado
por todos los equipos TC de última generación.

148
• Requiere entrenamiento de operador que procesa dichas imágenes, para dar
una información fidedigna de la estructura, de manera que ésta sea útil para el
diagnóstico. Sin el conocimiento requerido, esta técnica puede conducir a
errores en la demostración de imágenes. Para disminuir los errores y el tiempo
de confección de estas imágenes los equipos traen galerías prediseñadas para
exámenes estándar además es factible agregar nuevos formatos de acuerdo a
las necesidades del centro y tipo de exámenes que se efectúen.

Aplicaciones clínicas frecuentes:

Hay muchos usos en medicina de la técnica VRT, el uso más importante es la lectura
rutinaria de todos los datos del volumen, ya que esto contribuye a un adecuado
diagnóstico.

El papel de las imágenes reformadas mediante VRT continúa creciendo rápidamente.


Entre sus principales áreas de aplicación encontramos la evaluación de trauma
musculoesquéletico, estudios vasculares, resolución de lesiones subcorticales y de
fracturas desplazadas, evaluación de anomalías craneofaciales, múltiples evaluaciones
en oncología, y actualmente utilizado en estudios cardiacos.

Otras aplicaciones constructivas incluyen la determinación de grado de la enfermedad


y planeamiento de terapia de acuerdo con la información anatómica contenida en la
exhibición 3D de los datos del volumen. La revisión postoperatoria de pacientes con
prótesis ortopédica se puede lograr con mayor eficacia debido a la representación del
volumen 3D elimina la mayoría de los artefactos y delinea claramente la relación entre
la prótesis, el hueso, y los fragmentos del hueso.

Actualmente VRT tiene el potencial de proporcionar información que podría


representarse con otros estudios radiológicos más costosos o más invasivos como la
angiografía convencional. Hoy la Angiografía por TC está asumiendo un papel crucial
dentro del repertorio de diagnóstico para los estudios vasculares, proporcionando la
información a un costo más bajo y en menor tiempo.

El planeamiento quirúrgico es otra área en la cual la representación del volumen a


través de VRT ha hecho contribuciones significativas, ya que la mayoría de los
procedimientos quirúrgicos implica una relación compleja entre el tejido afectado y las
estructuras anatómicas adyacentes. Las imágenes VRT permiten localizar las
estructuras afectadas en relación a los tejidos sanos, viendo la extensión de la lesión y
permitiendo evaluar el mejor procedimiento operatorio para el paciente.

Por último, la representación tridimensional del volumen puede ayudar en la aparición


y evolución de otros procedimientos médicos, como la evaluación preoperatoria de los
potenciales donantes renales para trasplantes, ya que las terapias para precisar
localizaciones dentro del cuerpo son imposibles sin reconstrucciones exactas del
volumen.

149
o 2.4. Técnicas de volumen con perspectiva: Endoscopía Virtual

Es una aplicación especial de la técnica VRT aunque también puede utilizarse mediante
SSD. Corresponde a la presentación de volúmenes rendering en perspectiva o
PerspectiveVolumeRendering. Permite la navegación simulando un endoscopio a través
de árbol bronquial, grandes vasos y colón entre sus principales aplicaciones. Las
funciones de opacidad y color son seleccionadas para representar la transición entre
las paredes y el resto del tejido circundante. Permite la navegación virtual de lúmenes,
también llamados Fly Through, lo que provoca la percepción de vuelo virtual sobre una
región del cuerpo.

Figura 22: Se observa en la imagen A la disposición del “endoscopio” virtual


avanzando a través de la tráquea. En la imagen B se despliega el resultado de la
navegación endotraqueal, observándose la bifurcación de la tráquea.

150

También podría gustarte