Está en la página 1de 766

Elementos de radiofísica para técnicos

superiores en radioterapia y dosimetría

Luis Núñez Martín


Jefe de servicio
Servicio de Radiofísica y Protección Radiológica
Hospital Universitario Puerta de Hierro Majadahonda
Majadahonda, Madrid, España
Índice de capítulos

Cubierta

Portada

Página de créditos

Prólogo

Prefacio

Colaboradores

Parte 1: Fundamentos de física de radiaciones ionizantes

Capítulo 1: Estructura de la materia y transformaciones nucleares


1. Introducción

2. Estructura atómica. Modelos de átomos

3. Estructura nuclear

4. Transformaciones nucleares. Tipos de desintegraciones nucleares

5. Radiaciones atómicas y nucleares

6. Isótopos radiactivos. Nucleidos naturales y artificiales

7. Actividad y desintegración. Ley del decaimiento radiactivo

8. Resumen

Capítulo 2: Interacción radiación-materia


1. Introducción

2. Tipos de radiación. Radiación electromagnética y radiación corpuscular

3. Interacción de los fotones con la materia

4. Interacción de las partículas cargadas con la materia


5. Interacción de los neutrones con la materia

6. Resumen

Capítulo 3: Magnitudes y unidades radiológicas


1. Introducción

2. El Sistema Internacional (SI) de unidades

3. Magnitudes y unidades radiológicas en radioterapia

4. Magnitudes específicas en protección radiológica

5. Resumen

Capítulo 4: Detección y medida de la radiación


1. Introducción

2. Detección y medida

3. Tipos de detectores

4. Detectores en el ámbito hospitalario

5. Resumen

Parte 2: Equipamiento radioterápico

Capítulo 5: Equipos de simulación


1. Introducción

2. Objetivos

3. Simulador convencional

4. Simulador TC

5. Resumen

Capítulo 6: Equipos de tratamiento en teleterapia


1. Introducción

2. Teleterapia

3. Resumen

Capítulo 7: Equipos de control de posicionamiento guiado por imagen en radioterapia


1. Introducción

2. Generalidades

3. Evolución histórica

4. Sistemas de imagen radiológica bidimensional

5. Sistemas de imagen radiológica tomográfica o volumétrica

6. Sistemas basados en radiaciones no ionizantes

7. Resumen

Capítulo 8: Informática y comunicaciones


1. Introducción

2. Infraestructura informática en los departamentos de radioterapia: organización y proceso radioterápico

3. Comunicaciones, computación y ordenadores en los departamentos de radioterapia

4. La red radioterápica y su conexión e integración con HIS, PACS Y RIS: niveles de integración y problemas

5. Resumen

Parte 3: El proceso radioterápico. Dosimetría física.


radiobiología

Capítulo 9: Procesos y procedimientos en la actividad radioterápica


1. Introducción

2. Estructuración organizativa de la radioterapia: procesos y procedimientos

3. Recursos humanos

4. Procesos y procedimientos en radioterapia

5. Resumen

Capítulo 10: Dosimetría física en radioterapia externa


1. Introducción

2. Haces de fotones y electrones. Aspectos físicos

3. Medida de la dosis absorbida

4. Equipamiento

5. Determinación de la dosis en condiciones de referencia: calibración de haces de megavoltaje

6. Resumen
Capítulo 11: Radiobiología
1. Introducción

2. Etapas de la acción biológica de la radiación

3. Efectos de la radiación sobre el ADN

4. Efectos celulares de la radiación

5. Modificación de la sensibilidad celular

6. Crecimiento tumoral

7. Tejidos sanos

8. El fraccionamiento en radioterapia: modelo de isoefecto

9. El efecto de la tasa de dosis

10. Relaciones dosis-respuesta

11. Resumen

Parte 4: Aspectos físicos de la simulación en radioterapia

Capítulo 12: Concepto de simulación en radioterapia


1. Introducción

2. Definición. Objetivos

3. Evolución histórica. Tipos de simulación

4. Simulación convencional. Procedimientos

5. Simulación TC

6. Simulación convencional frente a simulación TC

7. Resumen

Capítulo 13: Posicionamiento, referenciación y dispositivos de inmovilización


1. Introducción

2. Dispositivos para establecer el sistema espacial de referencia

3. Dispositivos de obtención del contorno anatómico

4. Dispositivos de inmovilización

5. La documentación en simulación

6. Resumen
Capítulo 14: Equipos y modalidades de imagen utilizados en simulación
1. Introducción

2. Resonancia magnética

3. Tomografía por emisión de positrones

4. Angiografía

5. Tomografía computarizada 4D

6. Resumen

Capítulo 15: Registro y fusión de imágenes multimodalidad


1. Introducción

2. Integración de imágenes multimodalidad

3. Registro

4. Fusión

5. Resumen

Capítulo 16: Procedimientos tecnológicos. El control de calidad en la simulación


1. Introducción

2. Objetivos

3. Marco normativo en España

4. Pruebas de control de calidad

5. Resumen

Parte 5: Aspectos físicos de los tratamientos radioterápicos.


Planificación dosimétrica

Capítulo 17: Conceptos y herramientas de la dosimetría clínica en teleterapia


1. Introducción

2. De la prescripción al informe dosimétrico

3. Denominación de los volúmenes según ICRU

4. Curvas de isodosis

5. Histograma dosis-volumen

6. Prescripción de la dosis
7. Algoritmos de cálculo

8. Control de calidad del planificador

9. Resumen

Capítulo 18: Planificación de tratamientos de teleterapia


1. Introducción

2. Elementos circunstanciales a considerar en la preplanificación

3. Esquemas básicos de posicionamiento de los haces

4. Técnicas habituales de radioterapia conformada tridimensional (3D-CRT) según la localización anatómica

5. Resumen

Capítulo 19: Técnicas avanzadas de planificación


1. Radioterapia de intensidad modulada

2. Radioterapia intraoperatoria

3. Procedimientos estereotáxicos

4. Radioterapia guiada por la imagen

5. Radioterapia adaptativa

6. Corrección del movimiento intrafracción

7. Técnicas especiales

8. Resumen

Capítulo 20: Control de calidad en las planificaciones de los tratamientos radioterápicos


1. Introducción

2. Cálculo alternativo

3. Verificación experimental

4. Dosimetría in vivo

5. Resumen

Parte 6: Aspectos físicos de los tratamientos braquiterápicos y


metabólicos

Capítulo 21: Introducción a la braquiterapia


1. Introducción

2. Evolución histórica de la braquiterapia

3. Clasificación de las técnicas de braquiterapia

4. Fuentes radiactivas utilizadas en braquiterapia

5. Dosimetría física

6. Control de calidad de las fuentes radiactivas

7. Resumen

Capítulo 22: Equipos de tratamiento en braquiterapia


1. Introducción

2. Aplicadores

3. Equipos de braquiterapia

4. Salas de tratamiento de braquiterapia

5. Control de calidad de los equipos de braquiterapia de carga diferida automática

6. Resumen

Capítulo 23: Dosimetría clínica en braquiterapia


1. Introducción

2. Sistemas de braquiterapia

3. Cálculo de dosis

4. Evaluación de distribuciones de dosis

5. Resumen

Capítulo 24: Técnicas de tratamientos con radiofármacos


1. Introducción

2. Tratamientos con radiofármacos

3. Dosimetría interna

4. Protección radiológica en tratamientos con 131I

5. Resumen

Parte 7: Protección radiológica en radioterapia


Capítulo 25: Protección radiológica en radioterapia: organización, normativa y estrategias
1. Introducción

2. Objetivos y campo de actuación de la protección radiológica

3. Organización de la protección radiológica en el ámbito sanitario

4. Leyes y normas aplicables en protección radiológica

5. Del sistema de limitación de dosis (ICRP 1977) al sistema de protección radiológica

6. Elementos radioprotectores operacionales en radioterapia

7. Estrategias y procedimientos radioprotectores operacionales

8. Garantía y controles de calidad en los aceleradores

9. Resumen

Capítulo 26: Diseño de instalaciones de radioterapia


1. Introducción

2. Instalaciones de radioterapia

3. Tipos de instalaciones

4. Instalaciones complementarias asociadas

5. Planificación de instalaciones radioterápicas

6. Características de las instalaciones. Barreras contra la radiación

7. Cálculo de barreras contra la radiación

8. Resumen
Página de créditos

© 2016 Elsevier España, S.L.U.


Avda. Josep Tarradellas, 20-30, 1.°
08029 Barcelona, España

Fotocopiar es un delito. (Art. 270 C.P.)


Para que existan libros es necesario el trabajo de un importante colectivo (autores,
traductores, dibujantes, correctores, impresores, editores…). El principal beneficiario de
ese esfuerzo es el lector que aprovecha su contenido.
Quien fotocopia un libro, en las circunstancias previstas por la ley, delinque y contribuye
a la «no» existencia de nuevas ediciones. Además, a corto plazo, encarece el precio de las
ya existentes.
Este libro está legalmente protegido por los derechos de propiedad intelectual. Cualquier
uso, fuera de los límites establecidos por la legislación vigente, sin el consentimiento del
editor, es ilegal. Esto se aplica en particular a la reproducción, fotocopia, traducción,
grabación o cualquier otro sistema de recuperación de almacenaje de información.

ISBN (versión impresa): 978-84-9022-872-2


ISBN (versión electrónica): 978-84-9113-019-2

Depósito legal: B. 5.168-2016


Servicios editoriales: DRK edición

Impreso en España

Adve rt e ncia
Las ciencias de la salud son un área en constante evolución. Aunque deben seguirse unas
precauciones de seguridad estándar, a medida que aumenten nuestros conocimientos
gracias a la investigación básica y clínica habrá que introducir cambios en los
tratamientos y en los fármacos. En consecuencia, se recomienda a los lectores que
analicen los últimos datos aportados por los fabricantes sobre cada fármaco para
comprobar la dosis recomendada, la vía y duración de la administración y las
contraindicaciones. Es responsabilidad ineludible del médico determinar la dosis y el
tratamiento más indicado para cada paciente en función de su experiencia y del
conocimiento de cada caso concreto. Ni los editores ni los directores asumen
responsabilidad alguna por los daños que pudieran generarse a personas o
propiedades como consecuencia del contenido de esta obra.
El Editor
Prólogo
La formación de los profesionales es la garantía de una buena praxis en la actividad
laboral. Esto cobra un especial interés en el campo de la medicina, donde el objetivo es
mejorar la salud de los pacientes. La presente obra cubre sin duda este fin, con varias
ventajas añadidas. Se trata de un texto donde los conceptos están tratados con mucho
rigor. A pesar de ello, los temas se describen de manera amena y sencilla, incluso
superando la dureza de algunos de sus contenidos. La gran riqueza iconográfica también
sirve de gran ayuda a la comprensión.
Es un motivo de orgullo el hecho de que lo que empezó como unas notas de clase haya
madurado en un extenso, ordenado y completo compendio de las enseñanzas dirigidas a
futuros técnicos superiores en radioterapia y dosimetría, pero que también podrá
constituirse en un muy apropiado manual de consulta para todos los que ya ejercen la
profesión.
Gracias a la larga experiencia acumulada tanto por el Centro de Formación de técnicos
en el área de imagen diagnóstica del Hospital Universitario Puerta de Hierro
Majadahonda como por sus profesores, de esta y otras instituciones, que conocen el día a
día de la actividad laboral llevada a cabo en el terreno de la radioterapia, se ha sabido
seleccionar los temas y darles el nivel adecuado. Por ello, los elementos básicos
conceptuales, físicos y técnicos, mantienen en todo momento su proyección hacia la
práctica clínica. Además, resulta de gran interés que se hayan incluido los aspectos
organizativos, asignando tareas y responsabilidades a cada profesional implicado en el
complejo proceso de la radioterapia.
Todo esto ha sido posible gracias al esfuerzo de un grupo de especialistas bien
coordinados por el Dr. Luis Núñez. De otra manera, en solitario, la obra no hubiese
llegado fácilmente a término, debido al necesario cúmulo de tiempo extra, del que no se
dispone dada la intensa y prolongada jornada laboral que requiere una tarea de
excelencia y vanguardia como es la física médica en el ámbito de la radioterapia. Esta
especialidad clínica representa una de las que más, si no la que más, desarrollo
tecnológico ha experimentado en los últimos años. Si bien el principio activo (la
radiación ionizante) es el mismo desde hace ya más de un siglo, la precisión en
administrar la dosis adecuada de este medicamento ha mejorado considerablemente su
éxito curativo. En efecto, esto se ha logrado debido al conjunto multidisciplinario de
avances en la radiobiología; la física de partículas; las imágenes multimodales de
definición de geometría y medios (PET, IRM, TC, eco, por ejemplo) o de soporte a la
verificación correcta de los tratamientos; los desarrollos físico-matemáticos para la
simulación del transporte de la radiación en los planificadores; la compleja y precisa
ingeniería mecánica servocontrolada; las redes de comunicación de alta velocidad; los
nuevos detectores simples y matriciales; la supercomputación; etc. Poner de una forma
rigurosa, y a la vez clara y sencilla, todos estos conceptos al alcance de los especialistas
que tendrán en sus manos esta potente y sofisticada herramienta no ha sido tarea fácil,
pero sin duda ha sido bien lograda en el presente texto.
Por último, me gustaría felicitar al grupo de autores que han hecho posible que
podamos tener en nuestras manos un manual, escrito en español, que será de una ayuda
inestimable para profesores, alumnos y profesionales del campo de la radioterapia.
Prof. Dr. F. Sánchez Doblado
Especialista en Radiofísica Hospitalaria.
Catedrático y director del Programa de Doctorado en Física Médica, Facultad de Medicina,
Universidad Sevilla, Sevilla
Prefacio
Este libro nació impulsado por la necesidad de un texto que guiase a los alumnos del
título de Técnico Superior en Radioterapia y Dosimetría. En principio nos fue sugerido
que lo escribiéramos siguiendo los borradores del programa que se estaba elaborando
para el título. Después de leer los sucesivos borradores que iban apareciendo,
constatamos que los contenidos referidos a la radiofísica radioterápica estaban muy
diluidos en el programa formativo, y que además no reflejaban lo que nosotros, después
de decenas de años de ejercicio de la radiofísica hospitalaria y radioterápica,
considerábamos que debía recoger un programa formativo en esta área. Y esto por varias
razones.
La primera, porque constatamos que ese contenido propuesto no se correspondía con
el nivel de exigencia y responsabilidad que se asigna a estos profesionales. Este hecho
obliga, ya fuera de su período académico, a una formación continuada al pairo de lo que
el trabajo cotidiano les va exigiendo, ya que el período formativo asignado para el título
de Técnico Superior en Radioterapia en España es realmente escaso. Así pues, este es el
origen de uno de los objetivos del presente libro: que, además de su uso como material
de texto, sea una obra de consulta en el trabajo cotidiano.
Otra de las razones para reorientar los contenidos formativos viene del hecho de que,
en el ámbito de la radiofísica hospitalaria, no existen técnicos que estén formados bajo
programas formativos específicos y oficiales para desarrollar el trabajo que se precisa en
los departamentos de radiofísica y protección radiológica. Estos profesionales ya están
presentes en otros países, donde la figura del dosimetrista, por ejemplo, es común. Esta
es la razón de que se hayan introducido temas adicionales de física y dosimetría, para que
los técnicos que se precisen en estos servicios estén convenientemente formados.
Así pues, nuestra resolución fue que debíamos conseguir un texto con esta intención
realista de cubrir las necesidades existentes, ajustando los contenidos a las necesidades.
La intención, pues, fue hacer un libro fundamentalmente de radiofísica en radioterapia.
Después de mucho trabajo, hemos conseguido llegar a puerto con nuestro proyecto.
Quizás tenga inevitables errores, lógicos en una obra que se nos antoja ambiciosa y que
hubiese requerido un mayor tiempo de desarrollo, pero fundamentalmente hemos
plasmado lo que creemos que los técnicos que trabajan en radioterapia, en uno u otro
lado, en contacto con el paciente o colaborando en el diseño de los tratamientos, deben
conocer.
El nivel de los capítulos es variado; unos podrán parecer sencillos y otros muy
complejos, pero esto también tiene una intencionalidad plural. Los contenidos están
planteados provocadoramente a varios niveles. Algunos, con un puro carácter
informativo/formativo, a veces de alto nivel para incentivar el estudio y el conocimiento;
otros, con un sentido crítico y especulativo acerca de cómo están las cosas y como
debieran estar, y por último, otros, con sentido interrogativo, en los que se enfrenta el
estado real de la situación, del trabajo que se desarrolla, con lo que razonablemente
debería ser, dejando abierto a la reflexión cómo transformarlo y hacerlo de otra forma. Y
esto, porque hay que darse cuenta de que esta actividad profesional, este ámbito de
trabajo está absolutamente abierto a las mejoras continuas en los procedimientos
radioterápicos, la seguridad de los tratamientos y de los profesionales, la tecnología y la
organización. Todo está en un movimiento continuo, todo es interrogable y todo es
mejorable.
El hecho de que el libro esté escrito en español también tiene gran importancia.
Permite hacer llegar a nuestros colegas hispanoamericanos lo que nosotros estamos
haciendo y lo que nos queda por hacer.
Presentado el proyecto a Elsevier, la editorial lo vio claro y nos animó a realizarlo. Y
esto es algo por lo que les estamos profundamente agradecidos.
Luis Núñez Martín
Colaboradores
Pablo Castro Tejero, Facultativo especialista de área (FEA), Servicio de Radiofísica y
Protección Radiológica, Hospital Universitario Puerta de Hierro Majadahonda,
Majadahonda, Madrid, España

Carmen Escalada Pastor, Facultativa especialista de área (FEA), Servicio de Radiofísica


y Protección Radiológica, Hospital Universitario Puerta de Hierro Majadahonda,
Majadahonda, Madrid, España

Julia Garayoa Roca, Facultativa especialista de área (FEA), Servicio de Radiofísica y


Protección Radiológica, Fundación Jiménez Díaz, Madrid, España

Jaime Martínez Ortega, Facultativo especialista de área (FEA), Servicio de Radiofísica y


Protección Radiológica, Hospital Universitario Puerta de Hierro Majadahonda,
Majadahonda, Madrid, España

María Monedero Pinto, Facultativa especialista de área (FEA), Servicio de Radiofísica y


Protección Radiológica, Hospital Universitario Puerta de Hierro Majadahonda,
Majadahonda, Madrid, España

Alfredo Montes Uruén, Facultativo especialista de área (FEA), Servicio de Radiofísica y


Protección Radiológica, Hospital Universitario Puerta de Hierro Majadahonda,
Majadahonda, Madrid, España

Luis Núñez Martín, Jefe de servicio, Servicio de Radiofísica y Protección Radiológica,


Hospital Universitario Puerta de Hierro Majadahonda, Majadahonda, Madrid, España

Ruth Rodríguez Romero, Facultativa especialista de área (FEA), Servicio de Radiofísica


y Protección Radiológica, Hospital Universitario Puerta de Hierro Majadahonda,
Majadahonda, Madrid, España

Alberto Sánchez Reyes, Jefe de servicio, Servicio de Radiofísica y Protección


Radiológica, Grupo IMO, Madrid, España

Patricia Sáchez Rubio, Facultativa especialista de área (FEA), Servicio de Radiofísica y


Protección Radiológica, Hospital Universitario Puerta de Hierro Majadahonda,
Majadahonda, Madrid, España

Manuel Tudanca Hernández, Facultativo especialista de área (FEA), Servicio de


Radiofísica y Protección Radiológica, Grupo IMO, Madrid, España
PA R T E 1
Fundamentos de física de radiaciones
ionizantes
Capítulo 1: Estructura de la materia y transformaciones nucleares
Capítulo 2: Interacción radiación-materia
Capítulo 3: Magnitudes y unidades radiológicas
Capítulo 4: Detección y medida de la radiación
C AP Í T U L O 1
Estructura de la materia y transformaciones
nucleares
María Pinto Monedero

Julia Garayoa Roca

Ruth Rodríguez Romero

ÍNDICE
1. Introducción 2
2. Estructura atómica. Modelos de átomos 2
2.1. Modelo atómico de Dalton 2
2.2. Modelo atómico de Thomson 3
2.3. Modelo atómico de Rutherford 3
2.4. Modelo atómico de Bohr 3
2.5. Modelo atómico actual 4
3. Estructura nuclear 4
3.1. Estabilidad nuclear 5
4. Transformaciones nucleares. Tipos de desintegraciones nucleares 5
4.1. Desintegración β− 6
4.2. Desintegración β+ 6
4.3. Captura electrónica 6
4.4. Desintegración α 6
4.5. Desintegración γ 7
5. Radiaciones atómicas y nucleares 7
6. Isótopos radiactivos. Nucleidos naturales y artificiales 7
7. Actividad y desintegración. Ley del decaimiento radiactivo 8
7.1. Período de semidesintegración 9
7.2. Tiempo de vida medio 9
8. Resumen 9
Bibliografía 10
1. Introducción
El ser humano se ha planteado desde la Antigüedad de qué estaba hecha la materia.
Desde las primeras teorías atómicas griegas que consideraban al átomo como un ente
indivisible, el conocimiento sobre la estructura de la materia ha ido evolucionando hasta
la actualidad, cuando sabemos que existen numerosas partículas subatómicas o
elementales que forman la materia relacionadas por medio de una estructura
fundamentalmente energética.
Los objetivos de este capítulo son:
1. Conocer la evolución de los modelos atómicos hasta la actualidad.
2. Conocer la estructura nuclear y su estabilidad.
3. Conocer los tipos de desintegración radiactiva.
2. Estructura atómica. Modelos de átomos
Las primeras teorías sobre la estructura atómica de la materia datan del siglo v a.C. El
filósofo griego Demócrito formuló la teoría de que la materia se componía de partículas
indivisibles, a las que llamó átomos (a [no] y tomo [divisible]).
La descripción griega de la materia permaneció hasta el siglo xix, cuando se
consolidaron las bases de la teoría atómica moderna.

2.1. Modelo atómico de Dalton


En 1808, John Dalton publicó sus ideas sobre el modelo atómico. Según Dalton, la
materia está formada por pequeñas partículas esféricas e indivisibles denominadas
átomos, que no se alteran por cambios químicos.
Existen diferentes tipos de átomos que se diferencian por su masa y sus propiedades.
Los átomos de un mismo elemento son iguales entre sí (en masa, tamaño, etc.), mientras
que los átomos de diferentes elementos tienen propiedades distintas.
Los compuestos se forman por la unión de átomos de los correspondientes elementos
según una relación numérica sencilla y constante (agua, H2O).

2.2. Modelo atómico de Thomson


Hasta finales de la década de 1890, los átomos se consideraban indivisibles. Fue en 1897
cuando J. Thomson, investigando la conductividad eléctrica de gases a bajas presiones,
demostró que los átomos no eran indivisibles, sino que en el interior de ellos hay unas
pequeñas partículas con carga eléctrica negativa, a las que llamó electrones.
El modelo de Thomson, también conocido como modelo de «pastel de pasas», postula
que el átomo está formado por una gran masa esférica positiva uniforme donde se
distribuyen las cargas eléctricas negativas (electrones) a modo de pasas en un pastel
(fig. 1-1A). El número de electrones es tal que iguala la cantidad de carga positiva, ya que
el átomo en su conjunto debe ser eléctricamente neutro.
FIGURA 1-1 A) Representación esquemática del modelo atómico de Thomson o «pastel de
pasas». En este modelo, los electrones están distribuidos en una masa uniforme positiva. B)
Representación gráfica del modelo atómico de Rutherford. El átomo, prácticamente hueco, consta
de un núcleo positivo y de una corteza, donde se encuentran los electrones de carga negativa. C)
Representación gráfica del modelo atómico de Bohr. Los electrones sólo pueden girar en ciertas
órbitas permitidas.

2.3. Modelo atómico de Rutherford


En 1911 Ernest Rutherford llevó a cabo una serie de experimentos que cambiaron las
ideas existentes sobre la naturaleza del átomo. Rutherford bombardeó una fina lámina
de oro con partículas alfa (núcleos de helio) y mediante una pantalla fluorescente
observó cómo se dispersaban. La mayoría de ellas atravesaba la lámina metálica sin
cambiar de dirección; sin embargo, unas pocas eran reflejadas hacia atrás con ángulos
pequeños. Este resultado inesperado era incompatible con el modelo de átomo macizo.
Rutherford estableció el modelo atómico nuclear. El átomo está formado por el núcleo
y la corteza. El núcleo es la parte central donde se concentra toda la carga positiva y
prácticamente toda la masa del átomo. La corteza es casi un espacio vacío, donde se
encuentran los electrones, con una masa muy pequeña y carga negativa, girando
alrededor del núcleo (fig. 1-1B). Mientras el diámetro del átomo es del orden de 10−10 m, el
núcleo tiene un diámetro de 10−14 m, es decir, unas 10.000 veces menor. Los electrones
están ligados al núcleo gracias a la fuerza de atracción eléctrica entre cargas de signo
opuesto.
La mayor parte del átomo es, por tanto, espacio vacío, lo que explica por qué la mayoría
de las partículas que bombardeaban la lámina de oro la atravesaban sin apenas variar su
trayectoria. Sólo aquellas partículas que incidían directamente sobre los núcleos de oro
eran reflejadas, siendo menor el número de partículas que experimentaban esta
retrodispersión como consecuencia del pequeño tamaño de los núcleos en comparación
con la corteza.

2.4. Modelo atómico de Bohr


El modelo atómico de Rutherford era inconsistente, pues ya se sabía que cualquier carga
en movimiento acelerado emite energía en forma de radiación electromagnética. El
electrón, que describe un movimiento acelerado alrededor del núcleo, debía perder
energía en forma de radiación electromagnética, de manera que su trayectoria se acercase
al núcleo hasta colisionar con él. Sin embargo, el núcleo era una estructura estable.
Por otro lado, el modelo de Rutherford tampoco permitía explicar los espectros de
emisión de los gases. Se entiende por espectro de emisión de un gas el conjunto de
radiaciones electromagnéticas de frecuencias características de dicho gas o de sus
elementos constituyentes que emite cuando se le confiere energía.
En 1913, Bohr desarrolló un nuevo modelo de átomo para explicar el espectro atómico
del hidrógeno.
El átomo de Bohr contiene un núcleo pequeño, cargado positivamente y rodeado de
electrones que giran alrededor de él en determinadas órbitas fijas (fig. 1-1C).
Bohr establece que los electrones sólo pueden girar en ciertas órbitas, llamadas órbitas
estacionarias. En ellas, el electrón no emite energía: la energía cinética del electrón
equilibra exactamente la atracción electrostática entre las cargas opuestas de núcleo y
electrón. Los electrones se encuentran distribuidos en órbitas permitidas, es decir, el
espacio que rodea al núcleo está cuantizado (término adoptado del inglés quantize, que
significa discreto o discontinuo), de tal manera que el radio de las órbitas no puede tener
cualquier valor y sólo son posibles para unos valores concretos. Cada nivel atómico de
energía permitida para los electrones se caracteriza por su número cuántico principal n,
que puede tomar los valores enteros n = 1, 2, 3, etc., dando lugar a los niveles atómicos K,
L, M, etc., respectivamente.
Los saltos de los electrones desde niveles de mayor energía a otros de menor energía, o
viceversa, suponen, respectivamente, una emisión o una absorción de energía
electromagnética (fotones) (fig. 1-2):

donde Ef es la energía del nivel final y Ei la energía del nivel inicial.


FIGURA 1-2 En el modelo atómico de Bohr, los saltos de un electrón desde un nivel de mayor
energía a otro de menor energía, o viceversa, suponen, respectivamente, una emisión o una
absorción de energía electromagnética (fotones de luz).

Sin embargo, el modelo atómico de Bohr no podía explicar los espectros atómicos más
complejos. La idea de que los electrones se mueven alrededor del núcleo en órbitas
definidas tuvo que ser desechada.

2.5. Modelo atómico actual


El modelo atómico de Bohr presentaba también importantes limitaciones, pues no podía
explicar los espectros atómicos más complejos. Se hicieron varios intentos de adaptar el
modelo a átomos multielectrónicos, como las correcciones de Sommerfeld, pero los
resultados no fueron satisfactorios.
El modelo atómico actual fue desarrollado en la década de 1920 por Schrödinger y
Heisenberg, según la teoría de la mecánica cuántica y basándose en el principio de
dualidad onda-corpúsculo de De Broglie. En vez de hablar del electrón como partícula y
de trayectorias bien definidas, en mecánica cuántica se habla de la función de onda del
electrón, que permite describir la probabilidad de que el electrón se encuentre en una
región del espacio. El concepto de órbita se sustituye por el de orbital. El orbital describe
una cierta región del espacio donde hay una probabilidad no nula de que se encuentre el
electrón. La combinación de todos los orbitales atómicos da lugar a la corteza electrónica.
3. Estructura nuclear
El núcleo contiene dos tipos de partículas: protones y neutrones. Ambas reciben el
nombre conjunto de nucleones. Los nucleones tienen una masa aproximadamente 2000
veces mayor que la masa de los electrones. La masa del neutrón es prácticamente la
misma que la del protón. La carga eléctrica del protón es +e (entendiendo por e el valor
absoluto, sin signo, de la carga del electrón); el neutrón, por su parte, es eléctricamente
neutro (no tiene carga eléctrica) (tabla 1-1).

Tabla 1-1
Resumen de la carga y la masa del protón, del neutrón y del electrón

P artícula Carga (e) * Masa (u) †

Protón +1 1,007277
Neutrón 0 1,008665
Elec trón −1 0,000549
*
e: carga del electrón (e = 1,60·10−19 C).

u: unidad de masa atómica (u = 1,66·10−27 kg).

El número de protones, Z, se define como el número atómico del átomo y determina el


número de electrones del mismo en estado neutro. El número de nucleones se denomina
número másico, A, y representa de manera aproximada la masa del átomo:

La notación empleada para sintetizar la composición nuclear y atómica de un elemento


es , donde X es el símbolo del elemento en cuestión. Una especie nuclear en
particular recibe el nombre de nucleido.
Para cada elemento existen dos o más variedades que, teniendo el mismo número
atómico, poseen diferente número másico, es decir, se diferencian en el número de
neutrones. Estos nucleidos se denominan isótopos (p. ej., 131I, 127I y 125I). Al compartir el
mismo número atómico, se trata de los mismos elementos y sus propiedades químicas
serán las mismas. En este sentido, el número atómico Z (número de protones o carga del
núcleo) es lo que define al elemento, pudiendo variar el número de neutrones (la masa
del núcleo) o el número de electrones en su corteza, convirtiéndose en un átomo
ionizado (de carga no neutra).
Existen algunos nucleidos que comparten otras características. Dos nucleidos son
isóbaros (del término griego baros, que significa «peso») cuando poseen el mismo número
másico pero distinto número atómico (p. ej., 131I, 131Xe y 131Cs). Como tienen diferente Z,
corresponden a diferentes elementos. Dos nucleidos son isótonos si poseen el mismo
número de neutrones pero diferente número atómico y, por lo tanto, diferente número
másico (p. ej., ).
3.1. Estabilidad nuclear
Los nucleones se encuentran sometidos a dos tipos de fuerzas o interacciones en el seno
del núcleo atómico: interacciones electrostáticas o coulombianas e interacciones
nucleares fuertes. En este caso, las interacciones coulombianas actúan como fuerzas
repulsivas que se originan entre protones, al tener cargas del mismo signo. Las
interacciones nucleares fuertes se originan entre los nucleones, independientemente de
que sean protones o neutrones. Son fuerzas de atracción muy intensas, pero de muy
corto alcance. Estas fuerzas son las encargadas de mantener unidos los protones y
neutrones en el núcleo, venciendo la repulsión de las fuerzas electrostáticas.
Algunas combinaciones de protones y neutrones no forman núcleos estables. Si
estudiamos los núcleos que se encuentran en la naturaleza en cuanto al número de
protones y al número de neutrones (fig. 1-3), observamos que se distribuyen en torno a
una franja llamada línea de estabilidad. Los núcleos ligeros contienen aproximadamente el
mismo número de neutrones que de protones (N ≈ Z). Sin embargo, en los núcleos más
pesados el número de neutrones es siempre superior al de protones. En concreto, N ≈ 1,5
Z, es decir, contienen aproximadamente un 50% más de neutrones que de protones.
FIGURA 1-3 Representación gráfica de los nucleidos hallados en la naturaleza en función del
número de neutrones (N) y del número de protones (Z). Los nucleidos que se encuentran en la
naturaleza se distribuyen alrededor de una línea imaginaria, llamada línea de estabilidad, N≈Z para
núcleos ligeros y N≈1,5·Z para núcleos más pesados.

Los núcleos situados fuera de la línea de estabilidad son inestables y emitirán


partículas o radiación para transformarse en núcleos más estables a través de un proceso
de desintegración radiactiva. En estos casos, los nucleidos se denominan radionucleidos o
isótopos radiactivos.
4. Transformaciones nucleares. Tipos de
desintegraciones nucleares
En 1896, Henri Becquerel descubrió la radiactividad cuando estudiaba la fosforescencia
de determinadas sales de uranio. Becquerel guardó las sales de uranio junto a unas
placas fotográficas en un cajón cerrado herméticamente. Al cabo de unos días, encontró
que las placas fotográficas estaban veladas. Tras repetir la experiencia con idénticos
resultados, concluyó que las sales de uranio emitían de manera natural algún tipo de
radiación que impresionaba las placas fotográficas.
La radiactividad es la emisión de partículas o de radiación electromagnética por los
núcleos inestables de ciertos elementos.

4.1. Desintegración β−
Algunos núcleos son inestables debido a que tienen un exceso de protones o de
neutrones. Cuando un núcleo es inestable porque tiene un exceso de neutrones puede
transformar un neutrón en un protón, a la vez que se emite un electrón. Este tipo de
transformación se denomina desintegración β− y se simboliza así:

Además de un electrón, Pauli propuso en 1930 que debía emitirse otra partícula, a la
que llamó neutrino, para que se cumplieran las leyes de conservación de energía y
momento en la transformación. El neutrino (υ) y su antipartícula el antineutrino ( ) son
partículas subatómicas sin carga eléctrica y con una masa muy pequeña. En la
desintegración β− se emite un antineutrino (fig. 1-4A).
FIGURA 1-4 Esquema de las desintegraciones β− (A) y β+ (B). En la desintegración β−, el nucleido
padre se desintegra emitiendo un electrón y un antineutrino, resultando un nuevo nucleido con un
neutrón menos y un protón más. En la desintegración β+, el nucleido padre se desintegra emitiendo
un positrón y un neutrino, resultando un nuevo nucleido con un neutrón más y un protón menos.

4.2. Desintegración β+
Cuando un núcleo posee un exceso de protones puede transformar un protón en un
neutrón, a la vez que emite un positrón y un neutrino. El positrón es la antipartícula del
electrón, es decir, una partícula con la misma masa y la misma carga, pero de signo
opuesto. Esta transformación recibe el nombre de desintegración β+ y se simboliza así:

Una vez que se ha emitido el positrón, este pierde su energía cinética mediante
choques con los átomos de la materia circundante, hasta que finalmente colisiona con un
electrón en la llamada reacción de aniquilación. Como resultado de la aniquilación del
conjunto electrón- positrón se emiten dos fotones en la misma dirección, pero con
sentidos opuestos. La energía de cada fotón es 0,511 MeV, el equivalente en energía de la
masa del electrón y del positrón (fig. 1-4B).
Los radionucleidos empleados en la tomografía por emisión de positrones (PET) son
de esta clase.

4.3. Captura electrónica


En este tipo de desintegración, el núcleo absorbe un electrón orbital y lo combina con un
protón para formar un nuevo neutrón, emitiendo un neutrino:
Por su similitud, en ocasiones este tipo de desintegración recibe el nombre de
«desintegración β− inversa», ya que en ambos casos el núcleo se transforma en otro de
número atómico Z − 1 manteniendo el número másico.
El electrón orbital pertenece generalmente a las capas más internas de la corteza, las
capas K y L. El hueco dejado por el electrón capturado se llena con otro electrón de las
capas más externas, emitiéndose rayos X con una energía igual a la diferencia de energías
de ambas capas.
En las desintegraciones β−, β+ y captura electrónica, el número de nucleones, o número
másico, permanece estable, ya que la cantidad de neutrones disminuye una unidad y la
de protones aumenta así mismo una unidad. El núcleo hijo es, por tanto, isóbaro del
núcleo padre.

4.4. Desintegración α
En este tipo de desintegración el núcleo emite un núcleo de helio, formado por dos
protones y dos neutrones. La partícula α es una estructura muy estable y fuertemente
ligada. La emisión de partículas α es resultado de la repulsión electrostática entre los
protones del núcleo (fig. 1-5).
FIGURA 1-5 Esquema de una desintegración α. El nucleido padre se desintegra emitiendo una

partícula alfa (núcleo de ), resultando en un nuevo nucleido con dos protones y dos neutrones
menos.

El proceso puede simbolizarse así:

El núcleo resultante retrocede dos unidades en la tabla periódica y su número másico


disminuye en cuatro unidades.
Este tipo de desintegración radiactiva es típica de núcleos pesados; la mayoría de los
núcleos con A > 190 y muchos con 150 < A < 190 son inestables frente a la desintegración
α.

4.5. Desintegración γ
Tras la mayor parte de las desintegraciones α y β, el núcleo queda en un estado excitado.
Un estado excitado es inestable porque se encuentra en un nivel energético superior al
del estado fundamental (estable). Estos estados decaen al estado fundamental emitiendo
el exceso de energía en forma de rayos γ. Los rayos γ son ondas electromagnéticas de
muy alta energía, mayor que la de los rayos X. Tienen un alto poder de penetración,
atraviesan con facilidad el cuerpo humano y para frenarlos se necesitan varias láminas de
plomo o gruesas paredes de hormigón.
El estado excitado de un núcleo se representa mediante un asterisco en superíndice.
Por ejemplo, la desintegración γ del isótopo 12C sería:

Este tipo de desintegraciones también reciben el nombre de transición isomérica.


5. Radiaciones atómicas y nucleares
En el apartado 4, «Transformaciones nucleares. Tipos de desintegraciones nucleares»,
hemos visto diferentes tipos de radiaciones nucleares, resultado de distintos procesos
que tienen lugar en el núcleo atómico. Entre ellas, aparecen tanto radiación corpuscular
(desintegración β, desintegración α y captura electrónica) como radiación
electromagnética (desintegración γ).
Existen radiaciones que se producen debido a las transiciones electrónicas. Como ya
sabemos, los saltos de los electrones desde niveles de mayor energía a otros de menor
energía, o viceversa, suponen respectivamente una emisión o una absorción de energía
electromagnética (fotones).
Cuando se arranca un electrón de alguna de las capas debido a una interacción con un
fotón o una partícula cargada, se crea una vacante en esa capa. Alguno de los electrones
de capas superiores llenará esta vacante, emitiendo un fotón de energía igual a la
diferencia de energía entre ambos niveles. Estos fotones reciben el nombre de rayos X
característicos. En otras ocasiones, la diferencia de energía entre las capas no se traduce en
la emisión de un fotón, sino que se transfiere a otro electrón orbital, arrancándolo y
cediéndole cierta energía cinética. En este caso, los electrones reciben el nombre de
electrones Auger.
6. Isótopos radiactivos. Nucleidos naturales y
artificiales
Como hemos visto, existen algunas combinaciones de protones y neutrones que no
forman núcleos estables. Decimos que un isótopo es radiactivo cuando su combinación
de protones y neutrones es inestable, y tenderá, por tanto, a transformarse de manera
espontánea en otro núcleo más estable emitiendo radiación.
Por ejemplo, de los isótopos del hidrógeno, el hidrógeno simple (1H) es el más
abundante en la naturaleza y su núcleo está formado sólo por un protón. El deuterio (2H)
incorpora un neutrón al núcleo y es especialmente estable. Sin embargo, el tritio (3H)
incorpora un neutrón adicional y es un isótopo radiactivo.
La mayoría de los elementos se encuentran en la naturaleza como una mezcla de sus
diferentes isótopos. La abundancia isotópica relativa es el porcentaje que corresponde a
cada isótopo de un elemento tal como se halla en la naturaleza.
Son nucleidos radiactivos naturales, y por tanto constituyen una fuente natural de
radiación, aquellos nucleidos presentes en la Tierra que emiten radiación y no han sido
originados por la actividad humana (tabla 1-2). Las principales fuentes de radiación
natural tienen su origen en los rayos cósmicos (3H, 7Be, 14C, 22Na) y en la corteza terrestre
(40K, 87Rb, series radiactivas del uranio y del torio) (tabla 1-3).

Tabla 1-2
Ejemplos de radionucleidos naturales
Tabla 1-3
Series radiactivas naturales

Los nucleidos radiactivos artificiales son aquellos que han sido producidos como
resultado de alguna actividad humana. En el ámbito sanitario, los nucleidos radiactivos
artificiales se utilizan con fines diagnósticos en los servicios de medicina nuclear; para
investigación en el campo de la inmunología, la hematología, la biología molecular, etc., y
con fines terapéuticos en los servicios de medicina nuclear y de oncología radioterápica
(tabla 1-4).

Tabla 1-4
Características y aplicación de algunos nucleidos radiactivos artificiales

Existen otros nucleidos radiactivos que se emplean principalmente en la industria


nuclear para la obtención de energía. La radiactividad liberada en la atmósfera, sobre
todo como consecuencia de las pruebas nucleares efectuadas, se deposita poco a poco
sobre la superficie de la Tierra (lluvia radiactiva). Sin embargo, su aportación a la dosis
recibida por la población es muy pequeña en comparación con las exposiciones médicas
(fig. 1-6).
FIGURA 1-6 Dosis promedio recibida en 1 año por una persona cualquiera de la población
española (porcentajes respecto a la dosis total). Fuente: Consejo de Seguridad Nuclear.
7. Actividad y desintegración. Ley del decaimiento
radiactivo
La desintegración radiactiva es un proceso espontáneo. No podemos saber en qué
momento un núcleo determinado va a decaer radiactivamente para transformase en otro
más estable. Sin embargo, por estadística, si tomamos una muestra grande de núcleos
del mismo nucleido podremos saber qué ley sigue su desintegración, es decir, qué
cantidad de núcleos decaerán en un tiempo determinado.
La actividad (A) es el número de desintegraciones que se producen en una muestra por
unidad de tiempo. Supongamos que tenemos N núcleos radiactivos del mismo nucleido
en un cierto instante t. Transcurrido un período de tiempo ∆t, parte de esos núcleos se
habrán desintegrado. Si llamamos ∆N a la diferencia entre el número de núcleos
existentes transcurrido un tiempo ∆t y el número inicial de núcleos, podemos definir la
actividad:

La actividad se mide, en el Sistema Internacional (SI) de unidades, en desintegraciones


por segundo, unidad que recibe el nombre de Becquerelio (Bq) en honor a Henri
Becquerel:

Antiguamente se utilizaba también el Curio (Ci), que corresponde a la actividad de un


gramo de radio, elemento radiactivo descubierto por el matrimonio formado por Marie y
Pierre Curie:

Esta unidad esta hoy en día en desuso y no debe ser utilizada.


El número de desintegraciones que se producen por unidad de tiempo es proporcional
el número de núcleos de la muestra. La constante de proporcionalidad, λ, recibe el
nombre de constante de desintegración radiactiva y se mide en s−1:
Integrando la expresión de manera sencilla, llegamos a la ley de desintegración
radiactiva:

donde N0 es el número inicial de núcleos (fig. 1-7). Como la actividad y el número de


núcleos están relacionados a través de la constante de desintegración, podemos expresar
la ley de desintegración radiactiva en función de la actividad, multiplicando a ambos
lados por λ:

donde A0 es la actividad en el instante inicial (t = 0).


FIGURA 1-7 Ley de desintegración radiactiva. El número de radionucleidos de la muestra decae de
manera exponencial negativa. Cuando ha transcurrido un tiempo igual a un período de
semidesintegración, el número de núcleos de la muestra se ha reducido a la mitad. Si el tiempo
transcurrido es igual a dos períodos de semidesintegración, el número de núcleos de la muestra se
reduce a la cuarta parte.

El proceso de desintegración de un núcleo es independiente de factores externos como


la temperatura o la presión; únicamente depende del propio nucleido a través de la
constante de desintegración, λ. Cada nucleido tiene una λ característica, que da idea de
la probabilidad de que se desintegre por unidad de tiempo.

7.1. Período de semidesintegración


El período de semidesintegración radiactiva, T1/2, es el tiempo necesario para que la
actividad de un radionucleido se reduzca a la mitad. Esto es equivalente a decir que el
número de radionucleidos de la muestra se reduzca a la mitad:
El período de semidesintegración se mide en unidades de tiempo (segundos, minutos,
horas, años). Del mismo modo que la constante de desintegración, λ, el período de
semidesintegración es característico del radionucleido.

7.2. Tiempo de vida medio


El tiempo de vida medio, τ, es el tiempo medio que tarda un nucleido en desintegrarse, o
el tiempo que tarda en reducirse la actividad 1/e. Se relaciona con la constante de
desintegración radiactiva, λ, a través de la relación:

También se relaciona con el período de semidesintegración radiactiva, T1/2, como sigue:

El tiempo de vida medio es más largo que el período de semidesintegración radiactiva.


Se mide en unidades de tiempo.
8. Resumen
• Un nucleido está determinado por un número de protones (Z), de neutrones (N) y de
nucleones (A) característico.
• Isótopos: nucleidos con la misma Z (mismo número de protones).
• Isótonos: nucleidos con la misma N (mismo número de neutrones).
• Isóbaros: nucleidos con la misma A (mismo número de nucleones).
• En el núcleo actúan dos tipos de interacciones:
• Interacción coulombiana: entre protones, de carácter repulsivo.
• Interacción nuclear fuerte: entre nucleones, de carácter atractivo y corto alcance.
• Existen nucleidos estables y otros que no lo son. Los nucleidos estables se encuentran
en torno a la línea de estabilidad:
• N≈Z para nucleidos ligeros.
• N≈1,5·Z para nucleidos pesados.
• Los nucleidos inestables experimentan un proceso de desintegración para alcanzar la
estabilidad. La radiactividad es la emisión de partículas o radiación electromagnética
por núcleos inestables de ciertos elementos.
• La desintegración β− afecta a los nucleidos con exceso de neutrones y consiste en la
desintegración de un neutrón en un protón mediante el proceso
.
+
• La desintegración β afecta a los nucleidos con exceso de protones y consiste en la
desintegración de un protón en un neutrón mediante el proceso
.
• La captura electrónica afecta a nucleidos con un exceso de protones. Consiste en la
absorción de un electrón orbital y su combinación con un protón para producir un
neutrón: .
• La desintegración α consiste en la emisión, por parte del núcleo, de una partícula α
(formada por dos protones y dos neutrones): .
• La desintegración γ se produce cuando un nucleido se encuentra en estado excitado,
emitiendo el exceso de energía en forma de radiación electromagnética:
.
• La actividad es el número de desintegraciones que se producen por segundo. Su unidad
en el SI es el Bq.
• El número de nucleidos que se desintegran radiactivamente transcurrido un cierto
tiempo, t, sigue una ley de tipo exponencial llamada ley de desintegración radiactiva.
Bibliografía
Bushberg JT, Seibert AJ, Leidholdt EM, Boone JM. The essential physics of medical imaging. 2nd ed. Philadelphia:
Lippincott Williams & Wilkins; 2001: p. 17-30.
Bushong SC. Manual de radiología para técnicos. Física, biología y protección radiológica. 9ª ed. Madrid: Elsevier España;
2010: p. 37-56.
Cherry SR, Sorenson JA, Phelps ME. Physics in nuclear medicine. 3rd ed. Philadelphia: Saunders; 2003: p. 7-43.
Consejo de Seguridad Nuclear (CSN), Madrid 2011. La protección radiológica en el medio sanitario. Disponible en:
https://www.csn.es/images/stories/publicaciones/otras_publicaciones/pr_sanitario.pdf
Díaz García C, De Haro del Moral FJ. Técnicas de exploración en medicina nuclear. Ciclo formativo Imagen para el
diagnóstico. Barcelona: Elsevier España; 2004: p. 25-36.
Johns HE, Cunningham JR. The physics of radiology. 4th ed. Springfield: Charles C. Thomas; 1983: p. 3-33, 71-99.
Khan FM. The physics of radiation therapy. 4th ed. Baltimore: Lippincott Williams & Wilkins; 2010: p. 1-26.
Tipler PA. Física para la ciencia y la tecnología, Vol. 2, Barcelona: Reverté; 2001: p. 1209-40.
C AP Í T U L O 2
Interacción radiación-materia
Julia Garayoa Roca

María Pinto Monedero

Patricia Sánchez Rubio

ÍNDICE
1. Introducción 11
2. Tipos de radiación. Radiación electromagnética y radiación corpuscular 11
2.1. Radiaciones ionizantes 12
3. Interacción de los fotones con la materia 12
3.1. Atenuación de un haz de fotones: coeficientes de
atenuación másicos 13
3.2. Efecto fotoeléctrico 13
3.3. Efecto Compton 15
3.4. Creación de pares electrón-positrón 16
3.5. Otras interacciones de los fotones: dispersión de
Rayleigh e interacciones fotonucleares 16
4. Interacción de las partículas cargadas con la materia 17
4.1. Poder de frenado 17
4.2. Pérdidas energéticas por colisión 18
4.3. Pérdidas energéticas por emisión de radiación de
frenado 18
4.4. Pérdidas energéticas en interacciones nucleares 18
4.5. Interacciones de los electrones con la materia 19
5. Interacción de los neutrones con la materia 19
6. Resumen 20
Bibliografía 20
1. Introducción
La radiación es un transporte de energía a través del vacío o de un medio material.
Cuando la radiación se propaga en un medio se producen interacciones entre la radiación
y la materia. El tipo de interacción que sufre la radiación depende tanto de las
propiedades físicas de la propia radiación como de las del medio en el que se propaga. En
este tema se estudiarán tales interacciones, tras una breve descripción de los tipos de
radiación que existen en la naturaleza.
Se estudiarán las interacciones de los fotones, de las partículas cargadas, haciendo una
mención especial a los electrones, que son un caso particular de partícula cargada, y por
último se comentarán las interacciones de los neutrones.
El objetivo de este capítulo es que el lector se familiarice con las interacciones que
sufre la radiación al atravesar la materia, pues constituyen el principio físico en el cual se
basan las técnicas de imagen médicas y el tratamiento radioterápico que se irán viendo
en los capítulos posteriores.
2. Tipos de radiación. Radiación electromagnética
y radiación corpuscular
La radiación es un transporte de energía a través del vacío o de un medio material. En
general, se habla de radiación electromagnética y radiación corpuscular.
La radiación corpuscular está formada por partículas que se propagan en el espacio
transportando energía. En el capítulo 1 se han descrito algunos ejemplos de partículas,
como la radiación β, formada por electrones, o las partículas α y los neutrones, que se
producen en las desintegraciones radiactivas.
En cuanto a la radiación electromagnética, está formada por campos electromagnéticos
oscilantes que transportan energía a través del espacio. Son radiaciones
electromagnéticas los rayos X y la radiación γ, propias de las transiciones atómicas y
nucleares, respectivamente, y que ya se han tratado en el capítulo 1. Pero además de estas
dos formas de radiación electromagnética, también existen otras: las ondas de radio, las
microondas, el infrarrojo, la luz visible y la luz ultravioleta. Todas son radiaciones
electromagnéticas, y la diferencia entre ellas radica en la energía que transportan. De
hecho, existe un espectro continuo de energías posibles, llamado espectro
electromagnético.
La radiación electromagnética se propaga en el vacío a velocidad c (c: velocidad de la
luz, aproximadamente 3 × 108 m/s) y se caracteriza por su frecuencia ν y su longitud de
onda λ. Si imaginamos la radiación electromagnética como una onda sinusoidal que se
propaga en el espacio, la frecuencia ν es el período de repetición de la onda, es decir, el
número de crestas o de valles que pasan por un punto por unidad de tiempo, y por tanto
tiene dimensiones de tiempo−1 y se mide en ciclos/s o Hz; la longitud de onda λ es la
distancia entre dos crestas o dos valles consecutivos, tiene dimensiones de longitud y se
mide en metros. Como la velocidad de propagación de la radiación electromagnética es c,
se cumple que c = λν.
Es bien conocida la naturaleza ondulatoria de la luz, pues la física clásica se ha
encargado de estudiar los fenómenos ondulatorios de la luz visible (zona del espectro
electromagnético a la que es sensible el ojo humano). Sin embargo, con el desarrollo de
la teoría cuántica se puso de manifiesto que, dependiendo del fenómeno estudiado, la
radiación electromagnética se comportaba como un haz de partículas y no como una
onda; es lo que se conoce como dualidad onda-corpúsculo.
De este modo, la radiación electromagnética está formada por cuantos de energía,
llamados fotones, que transportan energía y viajan a la velocidad de la luz. Un fotón es
una partícula sin masa y sin carga eléctrica. La energía de un cuanto de radiación
electromagnética está relacionada con la frecuencia de la radiación ν (o de manera
equivalente, con su longitud de onda λ) mediante la expresión:
[1]

donde h es la constante de Planck, en honor al físico alemán que desarrolló la teoría


cuántica de la radiación electromagnética. La constante h = 6,626 × 10−34 J
s = 4,136 × 10−15 eV s. Por tanto, a mayor frecuencia ν, o menor longitud de onda λ, mayor
es la energía de los fotones.
Dentro del espectro electromagnético, los rayos γ son los más energéticos, con
longitudes de onda del orden del tamaño de un núcleo atómico; mientras que las ondas
de radio, mucho menos energéticas, presentan longitudes de onda del orden del
kilómetro.
En la mayoría de los capítulos de este libro, sólo nos vamos a interesar por los fotones
con energías altas (rayos X y γ), pues este es el tipo de radiación y rango de energías más
relevante en el ámbito de la radioterapia y la imagen médica. Además, a partir de ahora,
en este capítulo, nos referiremos siempre a los fotones, en virtud del fenómeno de
dualidad onda-corpúsculo.

2.1. Radiaciones ionizantes


Los distintos tipos de radiación (fotones, electrones, iones pesados y neutrones)
presentan comportamientos distintos en su interacción con la materia, dependiendo de
sus características físicas. La materia está constituida por átomos, es decir, núcleos y
electrones. Por tanto, estudiar las interacciones de las partículas con la materia equivale a
estudiar sus interacciones con los núcleos y los electrones.
Las radiaciones suelen clasificarse en ionizantes y no ionizantes. El proceso de
ionización consiste en una interacción con los electrones atómicos en la que uno de estos
electrones es arrancado del átomo. Las radiaciones no ionizantes son aquellas que, por su
baja energía, no son capaces de producir ionizaciones atómicas, y no serán objeto de
estudio en este capítulo. Las radiaciones ionizantes sí pueden producir ionizaciones y
por tanto tienen energías por encima de unos pocos eV, que es el orden de la energía de
ligadura de los electrones en el átomo.
Las radiaciones ionizantes suelen subdividirse en dos grandes grupos: directamente
ionizantes e indirectamente ionizantes. Las radiaciones directamente ionizantes son las
partículas cargadas, por ejemplo los electrones, que presentan interacciones
coulombianas y que, por tanto, pueden producir ionizaciones. Las radiaciones
indirectamente ionizantes son las partículas neutras, como los fotones de rayos X, γ y los
neutrones, que al interaccionar con el medio producen partículas cargadas que, a su vez,
son capaces de producir ionizaciones.
Todas las partículas transportan energía, y al atravesar la materia e interaccionar con
ella mediante todos los mecanismos que se describen a continuación, depositan energía
en el medio. En el campo de la radioterapia, este depósito de energía es el causante de la
lesión o la muerte de las células sanas o tumorales. Cada tipo de partícula presentará
unas características (mayor o menor alcance, mayor o menor depósito local de energía,
etc.) que la harán más o menos apropiada para un objetivo terapéutico dado.
3. Interacción de los fotones con la materia
El fotón es una partícula elemental sin masa y sin carga eléctrica. Los fotones presentan
una serie de interacciones propias cuya probabilidad de ocurrencia depende tanto de la
propia energía de los fotones como de las características del medio dispersor. La
interacción puede tener lugar con electrones muy ligados al átomo, como ocurre en el
efecto fotoeléctrico, o con electrones libres o poco ligados, en cuyo caso tenemos
fenómenos de dispersión tipo Rayleigh o efecto Compton. Por último, por encima de
cierta energía umbral, el fotón puede interaccionar con el campo electromagnético
creado por el núcleo y dar lugar a la producción de pares electrón-positrón.
A continuación se describe la atenuación de un haz de fotones que penetra en la
materia, y se estudiará detalladamente el origen físico de las interacciones del fotón con
el medio, así como la escala energética a la cual se produce cada una de ellas.

3.1. Atenuación de un haz de fotones: coeficientes de


atenuación másicos
Un haz de fotones que penetra en un medio sufre una atenuación originada por todas las
interacciones antes mencionadas. Supongamos que se hace incidir un haz delgado con N
fotones sobre cierto material. La reducción en el número de fotones, ∆N, que
experimenta el haz al atravesar un espesor ∆x de material, viene dada por:

[2]
donde la constante de proporcionalidad µ es el llamado coeficiente de atenuación.
Nótese que esta ecuación diferencial es del mismo tipo que la que describe la ley de
desintegración radiactiva nuclear. La integración de esta ecuación diferencial conduce a la
relación:

[3]
donde N0 es el número de fotones que contiene inicialmente el haz al penetrar en el
medio, N(x) es el número de fotones que alcanzan un espesor x de material, y µ es el
coeficiente de atenuación. El producto µx es la probabilidad de que el fotón sea
absorbido por alguno de los mecanismos de interacción. Como µ tiene dimensiones de
1/longitud, si x viene expresada en cm, µ tiene unidades de cm−1.
La probabilidad de que un fotón interaccione con alguno de los átomos de la materia
es directamente proporcional al número de átomos presentes, es decir, µ es proporcional
a la densidad del medio. Por eso se introduce el coeficiente de atenuación másico, que es
independiente de la densidad del material y se define como el cociente entre el
coeficiente de atenuación y la densidad del material: µ/ρ. El cociente µ/ρ tiene
dimensiones de longitud2/masa y suele expresarse en cm2/g.
La figura 2-1 representa la atenuación de un haz de fotones de 6 MeV (energía
frecuente en los haces de tratamiento utilizados en radioterapia) al atravesar tres
materiales distintos: agua, hormigón y plomo. Se observa que la atenuación es más
rápida en el plomo y el hormigón que en el agua, pues son materiales más densos
formados por elementos con mayor número atómico. Esta figura muestra que el
coeficiente de atenuación depende de la energía de los fotones y del material atravesado.

FIGURA 2-1 Atenuación de un haz de fotones de 6 MeV al atravesar agua, hormigón y plomo. Las
líneas discontinuas indican la capa hemirreductora para cada uno de los medios. Coeficientes de
atenuación obtenidos de la base de datos XCOM del National Institute of Standards and Technology.

Análogamente a como se define el periodo de semidesintegración de un núcleo en el


marco de la desintegración radiactiva, en este caso podemos definir la capa
hemirreductora x1/2 como el grosor de material absorbente que reduce el número de
fotones iniciales a la mitad. Dos capas hemirreductoras lo reducen a una cuarta parte, y
así sucesivamente; n capas hemirreductoras reducen el número de fotones en un factor
1/(2n).
La capa hemirreductora está relacionada con el coeficiente lineal de atenuación según
la ecuación siguiente, que se deduce de sustituir N(x1/2) = N0/2 en la ecuación 3:

[4]

En la figura 2-1 se muestra la capa hemirreductora en agua, hormigón y plomo, para


los fotones de 6 MeV. Como la atenuación de los fotones es mayor en el plomo y en el
hormigón que en el agua, las capas hemirreductoras correspondientes al plomo y al
hormigón son mucho más pequeñas.
Cada una de las interacciones que contribuye a la atenuación del haz de fotones puede
expresarse mediante un coeficiente de atenuación másico propio. Así, formalmente, el
coeficiente de atenuación másico debido a todas las interacciones posibles viene dado
por:

[5]

donde µfe , µC, µe e y µR son los coeficientes de atenuación debidos a la interacción


fotoeléctrica, Compton, creación de pares y dispersión Rayleigh, respectivamente.
Seguidamente se describen con detalle estas interacciones y las dependencias de sus
correspondientes coeficientes de atenuación.

3.2. Efecto fotoeléctrico


En este proceso, el fotón incidente interacciona con un electrón atómico y le transfiere
toda su energía, desapareciendo el fotón original, como puede verse de forma
esquemática en la figura 2-2. El electrón secundario, también llamado fotoelectrón,
adquiere toda la energía del fotón en forma de energía cinética y es expulsado del átomo.
Este fenómeno ocurre para energías del fotón incidente iguales o mayores que la energía
de ligadura del electrón atómico, que puede variar entre unos pocos eV hasta el MeV, en
el caso de átomos con un alto número atómico.
FIGURA 2-2 Representación esquemática del efecto fotoeléctrico: el fotón incidente interacciona
con un electrón atómico, transfiriéndole toda su energía. El fotón incidente desaparece.

Para que se produzca el efecto fotoeléctrico con un electrón de una determinada capa
atómica i es necesario que el fotón incidente posea una energía superior a la energía de
ligadura del electrón en el átomo, Ui. Es decir, existe una energía umbral Ui por debajo de
la cual el fotón no puede producir efecto fotoeléctrico con el electrón de la capa i. Esta
energía depende del material sobre el cual incide el fotón. La probabilidad de que se
produzca el efecto fotoeléctrico es muy alta para energías del fotón incidente ≥ Ui, y luego
decrece a medida que aumenta la energía del fotón.
Como resultado del efecto fotoeléctrico, el fotoelectrón es expulsado del átomo con
una energía cinética dada por:

[6]
donde Ui es la energía de ligadura del electrón de la capa i y hν > Ui es la energía del
fotón incidente. Entonces, cuanto menor es la energía de ligadura, mayor es la energía
cinética del fotoelectrón.
Si escribimos Ui = hν0, tenemos que:

[7]
Como la energía cinética es una cantidad positiva, esta relación vuelve a poner de
manifiesto que la frecuencia del fotón incidente ν ha de ser superior a una cierta
frecuencia umbral ν0, por debajo de la cual no existe efecto fotoeléctrico con el electrón
de la capa i. Es equivalente hablar de frecuencia umbral y energía umbral del fotón.
En la figura 2-3 se muestra el coeficiente de atenuación másico debido al efecto
fotoeléctrico en función de la energía del fotón incidente para varios elementos:
hidrógeno, oxígeno y plomo. Este coeficiente de atenuación másico tiene en cuenta la
probabilidad del efecto fotoeléctrico con los electrones de todas las capas atómicas. De
hecho, las discontinuidades presentes en el caso del plomo corresponden a las energías
umbrales de efecto fotoeléctrico con los electrones de las sucesivas capas atómicas (K, L,
M, etc.). Resulta evidente que el efecto fotoeléctrico presenta una fuerte dependencia de
la energía del fotón y del número atómico del material sobre el que incide.

FIGURA 2-3 Coeficiente de atenuación másico del efecto fotoeléctrico en función de la energía del
fotón y para distintos materiales: hidrógeno, oxígeno y plomo. Coeficientes de atenuación obtenidos de la
base de datos XCOM del National Institute of Standards and Technology.
Como ya se ha mencionado, la probabilidad del efecto fotoeléctrico es menor cuanto
mayor es la energía del fotón incidente; es, de manera aproximada, inversamente
proporcional al cubo de la energía del fotón 1/(hν)3.
Por otro lado, comparando los coeficientes de atenuación correspondientes a
elementos distintos, se observa que el efecto es más probable con elementos de alto
número atómico, siendo la dependencia en la probabilidad de ocurrencia proporcional al
cubo del número atómico del material dispersor Z3. Por tanto, los materiales con alto
número atómico son buenos absorbentes de fotones, y de ahí que se utilice el plomo para
construir blindajes de fotones, pues tiene un número atómico alto (Z = 82).
Una vez que se ha producido el efecto fotoeléctrico y el fotoelectrón ha sido expulsado
del átomo, este último queda en un estado excitado de energía. La vacante creada por el
fotoelectrón puede ser ocupada por otro electrón atómico de una capa más externa, con
la consecuente emisión de radiación característica. Otra posibilidad es que el átomo se
desexcite y emita electrones Auger. En este caso, el átomo emite electrones
monoenergéticos producidos por la absorción de radiación característica en el interior
del átomo.
Por último, cabe mencionar que el efecto fotoeléctrico es de suma importancia en la
formación de la imagen radiográfica, la cual se forma con los fotones que atraviesan el
paciente y llegan al detector de imagen. Esto permite la visualización de diferentes
tejidos, ya que cada uno de ellos produce una atenuación distinta del haz de fotones
incidente. La atenuación producida por los tejidos viene determinada, entre otros
factores, por la probabilidad de que se produzca una interacción fotoeléctrica que, como
ya se ha analizado, depende de la energía de los fotones y del material sobre el que
inciden.

3.3. Efecto Compton


Este proceso es una interacción que se produce como consecuencia de la dispersión
inelástica del fotón incidente con los electrones libres o poco ligados del átomo. Se dice
que es una interacción inelástica porque el fotón incidente cede parte de su energía al
electrón, que sale dispersado formando un ángulo φ respecto a la dirección del fotón
incidente. El fotón también modifica su trayectoria (ángulo θ), como puede verse en la
figura 2-4.
FIGURA 2-4 Representación esquemática del efecto Compton: el fotón incidente interacciona con
un electrón poco ligado, que es dispersado.

La energía del electrón dispersado depende del ángulo con que sale despedido. Las
leyes físicas de conservación de energía y momento permiten deducir las siguientes
relaciones que expresan la energía del electrón dispersado en función del ángulo de
dispersión:

[8]

donde ɛ = hν/me c2. La relación entre el ángulo de dispersión del electrón y del fotón es
cot(φ) = (1 + ɛ) tan(θ/2). La energía del fotón secundario, hν, viene dada por:

[9]

o expresada en función de la longitud de onda del fotón:

[10]
donde λC es la llamada longitud de onda Compton y se define como λC = h / me c.
La máxima transferencia de energía del fotón incidente al electrón se produce cuando
el electrón dispersado sale despedido hacia delante (φ = 0) y el fotón incidente sufre un
rebote o retrodispersión (θ = 180). En este caso, sustituyendo θ = 180 en las ecuaciones 8 y
9, obtenemos:

[11]

[12]

En contraposición a lo que ocurría en el efecto fotoeléctrico, en el caso del efecto


Compton la probabilidad de ocurrencia es prácticamente independiente del medio
dispersor, ya que consiste en una interacción con electrones poco ligados. Sin embargo, el
efecto Compton sí depende de la energía de los fotones: la probabilidad de interacción
disminuye al aumentar la energía del fotón incidente, aproximadamente como ∼1/hν.
En la figura 2-5 se representa el coeficiente de atenuación másico correspondiente al
efecto Compton para el agua y el plomo. Efectivamente, a partir de una determinada
energía, la probabilidad de que se produzca efecto Compton decrece con la energía, pero
de una forma mucho menos brusca que como lo hacía el efecto fotoeléctrico. También se
deduce de la figura, que la probabilidad de que se produzca efecto Compton no es muy
dependiente del medio dispersor.
FIGURA 2-5 Coeficiente de atenuación másico del efecto Compton en función de la energía del
fotón para el agua y el plomo. Coeficientes de atenuación obtenidos de la base de datos XCOM del National
Institute of Standards and Technology.

Comparando las figuras 2-3 y 2-5 puede concluirse que el efecto Compton ocurre con
mayor probabilidad para energías del fotón incidente mucho mayores que la energía de
ligadura de los electrones en el átomo; para energías del orden de la energía de ligadura
de los electrones, es más probable que se produzca efecto fotoeléctrico. Por otro lado,
para energías mayores de 2mec2 puede tener lugar la creación de pares, como se verá en la
siguiente sección. Por tanto, puede decirse que el efecto Compton es el efecto dominante
para energías intermedias del fotón incidente, del orden de mec2.
En radioterapia suelen usarse fotones de energía en el rango del MeV, por lo que el
efecto Compton es el tipo de interacción dominante. Cuanto menor es la energía de los
haces usados en radioterapia, mayor es la dispersión y por tanto mayor es la penumbra
de los haces empleados.
Los electrones dispersados que se producen en este tipo de interacción depositarán
energía en el medio por los mecanismos que se estudiarán en la próxima sección. Serán
las interacciones producidas por estos electrones secundarios las máximas causantes del
daño celular que se pretende producir con la radioterapia.

3.4. Creación de pares electrón-positrón


En este proceso, el fotón interacciona con el campo electromagnético del núcleo, y como
consecuencia de tal interacción, el fotón desaparece y su energía es invertida en crear un
par de partículas electrón-positrón. En la figura 2-6 se muestra esquemáticamente esta
interacción.

FIGURA 2-6 Representación esquemática de la creación de pares electrón-positrón. El fotón


incidente interacciona con el campo electromagnético del núcleo y su energía es invertida en crear
un par electrón-positrón.

Es evidente que existe una energía umbral para que este proceso ocurra: el fotón ha de
tener energía suficiente para crear un electrón y un positrón. Así, la energía umbral viene
dada por 2me c2. El exceso de energía, por encima del umbral, que puede tener el fotón, se
reparte en forma de energía cinética entre las dos partículas creadas. En la figura 2-7 se
representa la dependencia energética del coeficiente de atenuación másico, en agua y
plomo, para la creación de pares. Se observa claramente la existencia de esta energía
umbral, que además es independiente del material atravesado.
FIGURA 2-7 Coeficiente de atenuación másico de la producción de pares electrón-positrón en
función de la energía del fotón para el agua y el plomo. Coeficientes de atenuación obtenidos de la base
de datos XCOM del National Institute of Standards and Technology.

De acuerdo con la figura 2-7, la probabilidad de que tenga lugar la producción de pares
es fuertemente dependiente del número atómico. Efectivamente, la intensidad del campo
electromagnético creado por el núcleo crece con el número atómico de este como Z2. Por
tanto, cuanto mayor es Z, mayor es el campo electromagnético del núcleo, y más
probable es que se produzca la creación de pares, siempre que la energía del fotón
original sea superior a la energía umbral del proceso. Además, por encima de la energía
umbral la probabilidad de que ocurra el suceso es poco dependiente de la energía del
fotón incidente. Obsérvese que las curvas de la figura 2-7, por encima del valor umbral de
energía, son casi planas. De este modo, dicho mecanismo de interacción es el dominante
para energías del fotón suficientemente altas.
El positrón resultante de este proceso pierde su energía a medida que atraviesa el
material dispersor mediante el mismo tipo de interacciones que experimentan los
electrones. Al final de su recorrido, el positrón se recombina con algún electrón libre del
medio y da lugar a dos fotones de aniquilación.
3.5. Otras interacciones de los fotones: dispersión de
Rayleigh e interacciones fotonucleares
Además de las que ya se han explicado, los fotones presentan otras interacciones, en
particular la dispersión de Rayleigh y las interacciones fotonucleares, que se describen
brevemente a continuación.
La dispersión de Rayleigh es una dispersión elástica que se produce entre el fotón
incidente y un electrón atómico, sin que el átomo correspondiente sea excitado. Se dice
que la dispersión es elástica porque el fotón incidente y el dispersado tienen la misma
energía. El hecho de que no se produzca intercambio energético hace que este proceso
sea menos relevante desde el punto de vista dosimétrico.
Por último, en las interacciones fotonucleares un fotón de alta energía (por encima de
10 MeV) excita un núcleo atómico que se desexcita emitiendo algún nucleón. Estas
interacciones sólo ocurren para altas energías del fotón incidente, y son menos probables
que el resto de las interacciones que antes se han descrito. Sin embargo, son importantes
desde el punto de vista de la protección radiológica, ya que la producción de neutrones
debe tenerse en cuenta en el diseño de los blindajes de los búnkeres destinados a
radioterapia.
En las secciones anteriores hemos explicado las interacciones más importantes que
experimentan los fotones al atravesar un material. También hemos visto que cada una de
estas interacciones depende de manera distinta tanto de la energía de los fotones como
de las propiedades del material que atraviesan. En resumen, podemos decir que a bajas
energías (muy inferiores a 1 MeV) el efecto dominante es el fotoeléctrico; a energías
medias (desde unos 100 keV hasta energías del orden de 1 MeV), el proceso dominante es
el efecto Compton; y para altas energías, la producción de pares. En la figura 2-8 se indica
cuál de los tres efectos es el dominante en función de la energía del fotón incidente y del
número atómico del medio.
FIGURA 2-8 Interacción dominante de los fotones con la materia en función de la energía del fotón
y del número atómico del material sobre el cual inciden.
4. Interacción de las partículas cargadas con la
materia
Las interacciones de las partículas cargadas vienen regidas fundamentalmente por las
fuerzas coulombianas que existen entre las partículas cargadas incidentes y los campos
electromagnéticos creados por los electrones orbitales y por los núcleos atómicos.
Las interacciones con los electrones atómicos dan lugar a procesos de difusión elástica
o inelástica. Los procesos inelásticos implican la excitación o ionización de los átomos.
Por otro lado, las interacciones con los núcleos resultan en fenómenos de dispersión
elástica o inelástica, en los que se emite radiación, que suele denominarse radiación de
frenado.
Los procesos de dispersión elástica suponen un cambio en la trayectoria de la partícula
incidente, pero no implican depósito de energía en el medio. Los electrones, debido a su
pequeña masa, sufren más procesos de dispersión elástica que otras partículas cargadas,
como por ejemplo las partículas α. Esto hace que la trayectoria que sigue un electrón al
atravesar un medio material sea muy tortuosa, en comparación con las trayectorias
seguidas por partículas cargadas más pesadas, que son casi rectas. Del mismo modo, los
haces de electrones empleados en teleterapia presentan una gran penumbra debido a los
procesos de dispersión.
La importancia relativa de cada uno de estos procesos depende del medio y de las
características de la partícula cargada incidente. Por ejemplo, en el caso de los electrones,
que son partículas cargadas y de masa pequeña, las pérdidas energéticas debidas a la
radiación de frenado son importantes en comparación con las que experimentan otras
partículas más pesadas.
Las partículas cargadas pesadas, como los protones, también pueden dar lugar a
reacciones nucleares en las que se generan isótopos radiactivos que emitirán nuevas
partículas.

4.1. Poder de frenado


El depósito de energía producido por las partículas cargadas en sus interacciones con la
materia suele describirse mediante una magnitud denominada poder de frenado:

[13]

Esta magnitud describe la pérdida de energía cinética de las partículas cargadas en


función del espesor de material atravesado. El valor S tiene dimensiones de
energía/longitud = masa × longitud/tiempo2, y suele expresarse en MeV/cm. También es
usual expresar el poder de frenado como el cociente entre el poder de frenado y la
densidad del medio, S/ρ; en este caso recibe el nombre de poder de frenado másico. El
cociente S/ρ tiene dimensiones de longitud4/tiempo2, y suele expresarse en MeV cm2/g.
Cada tipo de interacción contribuye al poder de frenado. Por tanto, el poder de frenado
es dependiente del medio y de las características de la partícula cargada incidente.
Por ejemplo, una partícula α de 8 MeV de energía, alcanza una profundidad de menos
de 0,1 mm cuando incide en un blanco de agua. Para un electrón de la misma energía, la
profundidad alcanzada es de unos 4 cm. A la vista de estos datos, el riesgo de irradiación
externa con partículas α es fácilmente evitable, ya que no se requieren grandes blindajes
para su absorción. Sin embargo, si un núcleo radiactivo emisor α es incorporado al
organismo, las partículas α emitidas causarán un daño tisular importante, pues el
depósito de energía se produce de manera muy local (alto poder de frenado). En el caso
del electrón, al alcanzar una profundidad mayor, el depósito local de energía es menor
(menor poder de frenado). Recordemos, sin embargo, que los electrones siguen una
trayectoria muy tortuosa, por lo que la distancia entre el punto de entrada del electrón
incidente y el punto donde es completamente absorbido puede llegar a ser la mitad de la
longitud total recorrida por el electrón.

4.2. Pérdidas energéticas por colisión


Una partícula cargada puede excitar o incluso arrancar un electrón atómico. La partícula
cargada incidente colisiona con un electrón atómico y le cede parte de su energía, de
modo que el electrón atómico salta a un nivel energético menos ligado y el átomo queda
en un estado excitado. Si la energía de la partícula incidente es lo bastante alta, esta
puede llegar a arrancar el electrón del átomo, mecanismo que se denomina ionización.
Tanto la partícula incidente como el electrón secundario producido en la ionización
continuarán su recorrido en el material produciendo nuevos procesos de ionización o
excitación atómica.
El poder de frenado causado por las colisiones con electrones atómicos depende de las
propiedades del medio, de la carga de la partícula incidente y de su energía. El poder de
frenado por colisión, Scol, es decreciente a energías bajas de la partícula incidente, alcanza
un valor mínimo y luego crece hasta que se estabiliza. Así, a medida que se frena la
partícula cargada que atraviesa el medio, aumentan las pérdidas de energía por colisión.
Además, Scol es mayor en materiales con bajo número atómico, porque Scol depende de
la densidad de electrones en el medio, que es mayor en los materiales con bajo Z. Los
electrones atómicos de los materiales con alto Z están mucho más ligados, por lo que es
más difícil que interaccionen con los electrones que inciden en el medio.

4.3. Pérdidas energéticas por emisión de radiación de


frenado
De acuerdo con las leyes de la electrodinámica, una partícula cargada sometida a una
aceleración emite radiación electromagnética, que se denomina radiación de frenado
(Bremsstrahlung). Los núcleos atómicos de un determinado medio crean un campo
electromagnético, de modo que cuando una partícula cargada atraviesa ese medio recibe
una fuerza coulombiana que produce una aceleración, originando la emisión de radiación
de frenado. En la figura 2-9 se representa esquemáticamente este proceso. La radiación
de frenado presenta un espectro continuo de energía.

FIGURA 2-9 Representación esquemática de la emisión de radiación de frenado. El electrón


incidente es acelerado por el campo electromagnético creado por el núcleo, y genera la emisión de
radiación de frenado.

El poder de frenado debido a la radiación de frenado, Srad, es directamente


proporcional al cuadrado de la carga del núcleo y a la energía cinética de la partícula
cargada proyectil, e inversamente proporcional al cuadrado de la masa de la partícula
cargada:

[14]
De este modo, la emisión de radiación de frenado sólo es importante para partículas
cargadas ligeras, como el electrón; para partículas pesadas sólo es importante a energías
muy altas, fuera del rango energético utilizado en radioterapia. En cuanto a la
dependencia del material dispersor, la emisión de radiación de frenado es más eficiente
en materiales de alto Z, al ser mayor el campo electromagnético del núcleo.

4.4. Pérdidas energéticas en interacciones nucleares


Estas interacciones ocurren con partículas cargadas pesadas. En estos procesos se
producen núcleos radiactivos. Por ejemplo, un protón que atraviesa el tejido produce
isótopos radiactivos de baja vida media, como 11C, 13N y 15O, que son emisores de
positrones.
Este tipo de interacciones también son de gran relevancia en el ámbito de la imagen
médica, pues gracias a ellas se producen algunos de los isótopos radiactivos utilizados en
medicina nuclear. En un ciclotrón, que es un acelerador de partículas cargadas, se acelera
un haz de protones y se hace incidir sobre un blanco de oxígeno estable. Como resultado
de las interacciones nucleares que se producen se genera 18F, isótopo radiactivo emisor de
positrones que es empleado en medicina nuclear para realizar estudios de tomografía
computarizada por emisión de positrones (PET).
Por último, hay que mencionar que estas interacciones también son relevantes en
hadronterapia, un tipo de teleterapia en la cual se usan haces de hadrones. En tal caso,
habría que considerar estas interacciones en los cálculos dosimétricos.

4.5. Interacciones de los electrones con la materia


Los electrones son un caso particular de partículas cargadas, así que sus interacciones
son las que se han descrito en este apartado. Los electrones presentan la particularidad
de ser muy ligeros, por lo que las pérdidas energéticas por radiación de frenado son muy
importantes, de acuerdo con la ecuación 14.
Las dos contribuciones más importantes al poder de frenado másico de los electrones
son las pérdidas de energía por colisión con electrones atómicos (Scol) y las pérdidas
radiativas (Srad):

[15]

La importancia de cada una de las dos contribuciones depende de la energía del


electrón y del medio dispersor. Sin embargo, en términos generales puede decirse que las
pérdidas energéticas por radiación son dominantes a altas energías y en materiales con
alto número atómico. Suele definirse la energía crítica como la energía cinética del
electrón a partir de la cual las pérdidas radiativas son dominantes, aproximadamente
Ec (MeV) = 700/Z, donde Z es el número atómico del medio.
En la figura 2-10 se observa la dependencia energética del poder de frenado másico
correspondiente a las pérdidas energéticas por colisión (Scol, izquierda) y por radiación
(Srad, centro), y el poder de frenado total (S, derecha) que tiene en cuenta ambas
contribuciones. Se han representado los poderes de frenado correspondientes al agua y
al plomo.

FIGURA 2-10 Dependencia del poder de frenado másico respecto a la energía del electrón
incidente: poder de frenado por colisión (Scol/ρ, izquierda), por radiación (Srad/ρ, centro) y total (S/ρ,
derecha), teniendo en cuenta ambas contribuciones. Se han representado los poderes de frenado
correspondientes al agua y al plomo. Poderes de frenado obtenidos de la base de datos ESTAR del National
Institute of Standards and Technology.

Obsérvese que para energías inferiores a 1 MeV el poder de frenado está dominado por
las pérdidas energéticas por colisión; a energías más altas, las pérdidas por radiación de
frenado son dominantes. El poder de frenado por colisión es mayor en medios con bajo
número atómico. Por eso, en la figura 2-10 vemos que, para bajas energías, el Scol del agua
está por encima del Scol correspondiente al plomo. Para energías superiores las líneas se
cruzan, pues empiezan a dominar las pérdidas radiactivas que son más eficientes en
materiales con alto número atómico.
Como ya se ha comentado al principio de esta sección, los electrones también
experimentan dispersiones elásticas con los núcleos atómicos. En una dispersión elástica
con el núcleo, la partícula cargada incidente se desvía, pero no se produce intercambio
energético. Así, este tipo de proceso no contribuye al poder de frenado, pero sí afecta a la
forma de las trayectorias que siguen los electrones, que resultan ser muy tortuosas.
Por último, debe hacerse una mención a las interacciones de los positrones. Un
positrón, antipartícula del electrón, tiene las mismas propiedades físicas que el
electrón, pero con carga eléctrica de signo opuesto. Los positrones presentan las mismas
interacciones que sus compañeros de carga negativa. Cuando un positrón ha perdido casi
toda su energía, se aniquila con un electrón emitiendo dos fotones de aniquilación.
5. Interacción de los neutrones con la materia
Los neutrones son partículas masivas sin carga eléctrica, y por tanto se trata de radiación
indirectamente ionizante. Las interacciones de los neutrones vienen regidas por la
interacción fuerte con los núcleos, y son básicamente de dos tipos: dispersiones elásticas
o inelásticas, y reacciones nucleares de captura neutrónica. La probabilidad de ocurrencia
de estos procesos es muy dependiente de la energía del neutrón.
En una dispersión inelástica, el neutrón incide sobre el núcleo cediéndole parte de su
energía y desviándose de su trayectoria original. La energía cedida por el neutrón al
incidir sobre el núcleo deja a este último en un estado excitado de energía. La posterior
desexcitación del núcleo se produce emitiendo fotones. Así, la dispersión inelástica sólo
ocurre para energías del neutrón incidente superiores a la energía de excitación del
núcleo, alrededor de 0,1 MeV. Por encima de este umbral de energía, la probabilidad de
este proceso aumenta con la energía.
Por otro lado, las colisiones elásticas son un proceso equivalente a la colisión de dos
bolas de billar: el neutrón incide sobre el núcleo y le cede parte de su energía, pero sin
llegar a excitarlo, y se desvía de su trayectoria original. Las colisiones elásticas son más
probables en materiales con bajo número másico A, y son la causa del frenado de los
neutrones rápidos (E > MeV). Por esta razón, los blindajes de neutrones se construyen
con materiales ligeros de bajo número atómico, como la parafina o el agua. El proceso de
frenado de los neutrones rápidos a través de sucesivas colisiones elásticas se denomina
proceso de moderación.
Otra posibilidad es que el neutrón incidente sea absorbido por el núcleo; son las
reacciones nucleares de captura neutrónica o de activación. El neutrón incidente es
absorbido por el núcleo, creándose un estado inestable de energía que se desintegra
mediante la emisión de fotones (procesos de captura radiactiva) o de uno o varios
nucleones, por ejemplo un protón, un neutrón o un deuterón.
La probabilidad de que ocurran estas reacciones nucleares es inversamente
proporcional a la velocidad del neutrón, así que estas reacciones son más probables para
neutrones lentos (E∼keV).
Finalmente, los neutrones pueden producir reacciones de fisión nuclear. El neutrón
incidente es absorbido por el núcleo, que queda en un estado excitado de energía y se
desexcita mediante un proceso de fisión nuclear. Esta reacción también es más probable
para neutrones lentos que para neutrones rápidos.
Los neutrones constituyen un problema desde el punto de vista de la protección
radiológica en el ámbito de la teleterapia con haces de fotones de alta energía
(Eγ > 10 MeV). Los fotones de energías superiores a 10 MeV producen neutrones
mediante reacciones fotonucleares al interaccionar con los materiales pesados presentes
en el cabezal del acelerador. Como se acaba de describir, los neutrones generados son los
causantes de los procesos de activación neutrónica, lo que supone una exposición
adicional a radiaciones ionizantes tanto del paciente como del personal profesionalmente
expuesto que atiende al paciente a pie de máquina.
Cabe señalar que los neutrones son partículas muy penetrantes, es decir, que tienen un
recorrido muy largo antes de ser completamente absorbidos por el material sobre el que
inciden. La razón es que los neutrones sólo interaccionan con los núcleos atómicos. El
tamaño nuclear es muy pequeño comparado con el tamaño atómico, así que los
neutrones son capaces de atravesar una distancia relativamente grande sin encontrarse
ningún núcleo con el cual interaccionar.
En definitiva, las características propias de las interacciones de los neutrones con la
materia hacen que estos deban tenerse en cuenta a la hora de construir blindajes
adecuados en radioterapia con fotones de alta energía. Estos blindajes deben incluir
materiales con bajo número atómico, como la parafina, para conseguir moderar la
energía de los neutrones y su adecuada absorción.
6. Resumen
En este capítulo se han estudiado las interacciones que presenta cada tipo de radiación
(fotones, partículas cargadas, electrones y neutrones) al atravesar la materia. Se ha
prestado especial atención a las radiaciones ionizantes más relevantes en el ámbito de la
radioterapia y la imagen médica, de modo que queden asentados los principios físicos en
que se basan estas técnicas.
Bibliografía
Attix FH. Introduction to radiological physics and radiation dosimetry. Mörlenbach: John Wiley & Sons; 1986.
Berger MJ, Coursey JS, Zucker MA, Chang J. ESTAR, PSTAR, and ASTAR: computer programs for calculating stopping-
power and range tables for electrons, protons, and helium ions (version 1.2.3, 2005). Gaithersburg, MD: National
Institute of Standards and Technology. Disponible en: http://physics.nist.gov/Star
Berger MJ, Hubbell JH, Seltzer SM, Chang J, Coursey JS, Sukumar R, et al. XCOM: photon cross section database
(version 1.5, 2010). Gaithersburg, MD: National Institute of Standards and Technology Disponible en:
http://physics.nist.gov/xcom
Khan FM. The physics of radiation therapy. 4th ed. Baltimore: Lippincott Williams & Wilkins; 2010.
Podgorsak EB. Radiation oncology physics: a handbook for teachers and students. Viena: IAEA; 2005.
C AP Í T U L O 3
Magnitudes y unidades radiológicas
Patricia Sánchez Rubio

Jaime Martínez Ortega

María Monedero Pinto

ÍNDICE
1. Introducción 21
2. El Sistema Internacional (SI) de unidades 21
2.1. Unidades derivadas de interés para la detección y la
medida de la radiación 21
2.2. Múltiplos y submúltiplos del SI. La notación
científica 22
3. Magnitudes y unidades radiológicas en radioterapia 23
3.1. Magnitudes radiométricas 23
3.2. Coeficientes de interacción 24
3.3. Magnitudes dosimétricas 26
3.4. Magnitudes y unidades en radiactividad 27
4. Magnitudes específicas en protección radiológica 28
4.1. Equivalente de dosis 28
4.2. Magnitudes limitadoras 29
4.3. Magnitudes operacionales 30
5. Resumen 31
Bibliografía 31
1. Introducción
La caracterización cuantitativa y precisa de las radiaciones ionizantes y sus posibles
efectos requiere el empleo de un conjunto de magnitudes con sus
correspondientes unidades. Tanto la Comisión Internacional de Unidades y Medida de la
Radiación (ICRU, International Commission on Radiation Units and Measurements)
como la Comisión Internacional de Protección Radiológica (ICRP,
International Commission on Radiological Protection) se encargan de la definición
formal de las magnitudes y unidades en el campo de la dosimetría de las radiaciones y la
protección radiológica, respectivamente, para una aplicación segura y eficiente de las
radiaciones ionizantes para terapia, diagnóstico y radioprotección de los individuos y la
población.
El objetivo de este capítulo es que el alumno conozca las magnitudes y unidades
empleadas en el campo de la dosimetría de las radiaciones ionizantes y de la protección
radiológica.
2. El Sistema Internacional (SI) de unidades
Cuando se expresa una medida se emplean dos tipos de información: un número y una
unidad. Por ejemplo, cuando se habla de la estatura de una persona, puede expresarse
como 70 pulgadas, si se emplea el sistema anglosajón de unidades, o 177,8 centímetros si
se utiliza el sistema métrico. Aunque 70 pulgadas es lo mismo que 177,8 centímetros, si
no se conocen las unidades la información contenida en el número carece de significado.
En 1960, a partir de la Conferencia General de Pesos y Medidas se acordó adoptar un
solo sistema de unidades que resultara práctico y claro para toda la comunidad científica,
que se denominó Sistema Internacional de unidades o SI. El SI es un conjunto básico de
magnitudes y unidades de medida a partir del cual se derivan el resto, y es adoptado en
casi todos los países del mundo, excepto en algunos como los Estados Unidos. La ventaja
del SI es que sus unidades se basan en fenómenos físicos fundamentales, a excepción del
kilogramo, la unidad de la magnitud masa, que se define como la masa del prototipo
internacional del kilogramo: un cilindro de platino e iridio, que se conserva en la Oficina
Internacional de Pesas y Medidas, en Francia. La tabla 3-1 resume las siete unidades
básicas que constituyen el SI.

Tabla 3-1
Magnitudes y unidades básicas del SI y fenómenos físicos en los que se basan
sus definiciones

SI, Sistema Internacional de unidades.


*
Unidad que mide ángulos sólidos.

2.1. Unidades derivadas de interés para la detección y la


medida de la radiación
Se denominan unidades derivadas las unidades utilizadas para expresar magnitudes
físicas que son el resultado de la combinación algebraica de magnitudes físicas básicas,
es decir, que se obtienen mediante operaciones matemáticas de multiplicación y división.
A lo largo del capítulo aparecerán diversas magnitudes y unidades relativas al campo
de la electricidad que se emplearán para explicar el funcionamiento físico de los
diferentes detectores, e incluso son el valor indicado por el propio instrumento de
medida. Por ello, a continuación se detallan las siguientes magnitudes y unidades:
fuerza, carga eléctrica, diferencia de potencial y capacidad eléctrica.

Fuerza
Su unidad es el Newton (N). Un newton es la fuerza necesaria para proporcionar una
aceleración de 1 m/s2 a un objeto cuya masa sea de 1 kg.

Carga eléctrica
Su unidad es el Culombio (C). Un culombio es la cantidad de electricidad que una
corriente de un amperio (A) de intensidad, transporta durante un segundo.

Diferencia de potencial
Su unidad es el Voltio (V). Un voltio es la diferencia de potencial que hay entre dos
puntos de un conductor cuando al transportar entre ellos una corriente de intensidad un
amperio se utiliza un vatio de potencia. La unidad de potencia es el vatio (W), que se
define como la potencia que genera una energía de un julio (J) por segundo.

El julio (J) es la unidad de energía y se define como la energía cinética de un cuerpo


con masa de un kilogramo que se desplaza con una velocidad de un metro por segundo
en el vacío. Aunque el electronvoltio (eV) no es una unidad del SI, será utilizada a lo
largo del capítulo como unidad de energía. Un eV representa la energía cinética que
adquiere un electrón, cuya carga es 1,602 10−19 C, cuando es acelerado por una diferencia
de potencial de un voltio en el vacío:

De la relación anterior se obtiene que 1 eV equivale a 1,602 10−19 J.

Capacidad eléctrica
Su unidad es el faradio (F) y se define como la capacidad de un conductor que con una
carga almacenada de un culombio adquiere una diferencia de potencial de un voltio.

2.2. Múltiplos y submúltiplos del SI. La notación científica


La tabla 3-2 muestra los prefijos que se utilizan para formar los múltiplos y submúltiplos
decimales de las unidades del SI. Estos vienen expresados en notación científica, la cual
es una manera rápida y fácil de representar números muy grandes o muy pequeños
utilizando potencias de base diez. De forma genérica, un número en notación científica
puede expresarse como a × 10n, donde a es un número entero o decimal, mayor o igual
que 1 y menor de 10, y n es el exponente u orden de magnitud.
Tabla 3-2
Múltiplos y submúltiplos utilizados en el SI

SI, Sistema Internacional de unidades.


3. Magnitudes y unidades radiológicas
en radioterapia
A continuación se describen las magnitudes y unidades clasificadas en diferentes
categorías de acuerdo con el informe ICRU, Fundamental Quantities and Units for Ionizing
Radiation (Report 85), que es desarrollo y revisión de otros informes similares publicados
anteriormente.

3.1. Magnitudes radiométricas


Son las magnitudes utilizadas para la especificación de los campos de radiación y se
refieren al número y la energía de partículas ionizantes que componen dicho campos,
junto con sus distribuciones espaciales y temporales.
Las magnitudes más generales asociadas a un campo de radiación son el número de
partículas N y la energía radiante E de las partículas que son emitidas, transferidas o
recibidas (excluyendo su energía en reposo). Sus respectivas unidades son 1 y el julio (J).
A partir de estas dos magnitudes pueden definirse otras que se describen a continuación.

Flujo de partículas
El flujo de partículas ( ) es el cociente de dN entre dt, donde dN es el incremento del
número de partículas en el intervalo de tiempo dt. Su unidad es s−1.

[1]

Flujo de energía
El flujo de energía ( ) es el cociente de dR entre dt, donde dR es el incremento de
energía radiante en el intervalo de tiempo dt. Su unidad es J/s = W.

[2]

Tanto el flujo de partículas como el flujo de energía se refieren a una región espacial
limitada, es decir, al flujo de partículas que emergen del colimador de un acelerador
lineal de electrones o, si se trata de una fuente radiactiva, como las utilizadas en
braquiterapia, al flujo de partículas emitidas en todas las direcciones.
Fluencia de partículas
La fluencia de partículas (Φ) en un punto P es el cociente de dN entre da, donde dN es el
número de partículas incidentes sobre una esfera de sección transversal da, centrada en
dicho punto P, es decir, da es un diferencial de área perpendicular a la dirección de cada
partícula. Su unidad es m−2.

[3]

Para un campo de radiación que no varía en un intervalo de tiempo t, y que está


compuesto por partículas de velocidad v, la fluencia puede expresarse como:

[4]
donde n es la densidad del número de partículas (dN/dV), esto es, el número de
partículas que hay en un determinado volumen (V).

Fluencia de energía
La fluencia de energía (ψ): es el cociente de dR entre da, donde dR es la energía radiante
incidente sobre una esfera de sección da. Su unidad es J/m2.

[5]

Tasa de fluencia de partículas


La tasa de fluencia de partículas ( ): es el cociente de dΦ entre dt, donde dΦ es el
incremento de fluencia en el intervalo de tiempo dt. Su unidad es m−2·s−1.

[6]

Para un campo de radiación formado por partículas de velocidad v, la tasa de fluencia

puede expresarse como:


[7]

Tasa de fluencia de energía


La tasa de fluencia de energía ( ): es el cociente de dψ entre dt, donde dψ es el
incremento de la fluencia de energía en el intervalo de tiempo dt. Su unidad es W/m2.

[8]

3.2. Coeficientes de interacción


Son el nexo de unión entre las magnitudes radiométricas y las dosimétricas. En los
procesos de interacción de la radiación y la materia, la energía o la dirección (o ambas) de
la partícula incidente pueden verse modificadas, o bien puede suceder que la partícula
sea absorbida. Además, la interacción puede conllevar la producción o la emisión (o
ambas) de una o varias partículas cargadas. La probabilidad de tales interacciones está
caracterizada por los coeficientes de interacción. Todos ellos se refieren a una clase de
interacción específica, un tipo y una energía de radiación, y un material.
El coeficiente de interacción fundamental es la sección eficaz; todos los demás pueden
expresarse en función de este.

Sección eficaz
La sección eficaz (σ) para una interacción de una partícula cargada o no cargada con un
blanco o medio material determinado es el cociente de P entre Φ, donde P es la
probabilidad de interacción para el blanco de que se trate cuando está sometido a una
fluencia de partículas Φ. Su unidad es m2.

[9]

La unidad especial utilizada para la sección eficaz es el barn (b), que se define como:

Coeficiente de atenuación lineal


El coeficiente de atenuación lineal (µ): si se considera un haz paralelo y estrecho de
fotones monoenergéticos (N0) que incide perpendicularmente sobre una lámina muy fina
de sustancia (dl), el número de fotones que llegan al detector (N), según el esquema de la
figura 3-1A, será:

[10]

FIGURA 3-1 A) Ley de atenuación exponencial. Un haz de fotones N0 se ve atenuado al


interaccionar con un material de espesor x. El coeficiente de atenuación másico (μ/ρ) indica la
fracción de fotones que sufren las interacciones con la materia, por unidad de masa superficial. B)
Atenuación exponencial del haz a medida que aumenta el espesor del material. Si dicho espesor es
igual a una capa hemirreductora (CHR), la intensidad del haz se reduce a la mitad de su valor
original.

µ es el coeficiente de atenuación lineal y su unidad es m−1. Puesto que la atenuación


producida por un espesor x depende del número de electrones presentes en dicho
espesor, µ depende de la densidad del material. Además, también es dependiente de la
energía de la radiación incidente. µ viene a representar la fracción de fotones que
interaccionan por unidad de espesor atenuador. Al inverso del coeficiente de atenuación
lineal se le denomina recorrido libre medio (1/µ) y se emplea como parámetro para definir
el alcance de las partículas no cargadas en un medio.
La ecuación 10 representa la ley de atenuación exponencial, la cual es válida para haces de
fotones «monoenergéticos» en condiciones de «haz estrecho», es decir, cuando sólo una
fracción despreciable de los fotones dispersos pueden alcanzar el detector. La ecuación
10 también puede ser expresada en términos de intensidad (I):

[11]
donde I(x) es la intensidad transmitida a través de un espesor x (pudiéndose entender
por intensidad la energía o alguna magnitud relacionada con ella), e I 0 es la intensidad
incidente sobre el absorbente. En la figura 3-1B se muestra la atenuación exponencial del
haz en función del espesor x, de manera que cuando este es igual a una capa
hemirreductora (HVL, Half Value Layer) la intensidad del haz se reduce a la mitad de su
valor original. Es decir, si x = 1 HVL, entonces I/I 0 = ½. A partir de la ecuación 11 puede
deducirse que:

[12]

Como ya se ha indicado, la atenuación exponencial funciona bastante bien, cuando se


aplica estrictamente a haces estrechos y monoenergéticos. Sin embargo, un haz real
producido por un generador de rayos X está formado por fotones de diferentes energías,
y por tanto la atenuación de dicho haz no es exponencial. En general, para un haz
heterogéneo, la primera HVL es menor que las subsiguientes HVL. Cuando el espesor del
absorbente o filtro aumenta, la energía promedio del haz transmitido aumenta o el haz
se hace cada vez más duro. Por tanto, aumentando la filtración de un haz de rayos X se
aumenta su poder de penetración y, por consiguiente, la capa hemirreductora del haz.

Coeficiente de atenuación másico


El coeficiente de atenuación másico (µ/ρ) de un material para partículas ionizantes no
cargadas: es el cociente dN/N entre ρdl, donde dN/N es la fracción de partículas que
sufren alguna interacción al atravesar una distancia dl en un material de densidad ρ. Su
unidad es m2/kg.

[13]

El coeficiente de atenuación másico se emplea para evitar la dependencia con la


densidad del material absorbente que presenta el coeficiente de atenuación lineal.
Cabe destacar que el coeficiente de atenuación másico, µ/ρ, se utiliza exclusivamente
para partículas ionizantes no cargadas, es decir, para fotones y neutrones, y es una
constante del material para un tipo y una energía de radiación determinados.
El coeficiente de atenuación másico puede expresarse en función de la sección eficaz
como:
[14]

donde NA es el número de Avogadro y se define como el número de entidades


elementales (átomos o moléculas) que hay en un mol. Su valor es 6,023 1023 mol−1.
M es la masa molar del material. La masa molar se define como la masa de un mol de
un elemento o compuesto químico. Puede obtenerse como el producto del número de
Avogadro por la masa atómica del elemento o compuesto químico en cuestión.

Poder de frenado lineal


El poder de frenado lineal (S) de un material para partículas cargadas: es el cociente entre
dE y dl, donde dE es la energía perdida por una partícula cargada al atravesar una
distancia dl. Su unidad es J m−1. Depende del material atravesado por la partícula, de su
densidad y de la energía de la propia partícula.

[15]

Poder de frenado másico


El poder de frenado másico (S/ρ) de un material para partículas cargadas: es el cociente de
dE entre ρdl, donde dE es la energía perdida por una partícula cargada al atravesar una
distancia dl en un material de densidad ρ.

[16]

Su unidad es J m2 kg−1. La energía E puede estar expresada en eV y entonces S/ρ puede


expresarse en eV m2 kg−1.
El poder de frenado másico se expresa como una suma de componentes
independientes de la siguiente manera:

[17]
donde:

es el poder de frenado másico electrónico (o de colisión)


debido a las colisiones de las partículas cargadas incidentes con los electrones atómicos
que dan lugar a ionizaciones o excitaciones.

es el poder de frenado másico radiativo debido a la


emisión de radiación de frenado, o Bremsstrahlung, producida por las partículas cargadas
incidentes en los campos eléctricos de los núcleos atómicos o de los electrones atómicos.

es el poder de frenado másico nuclear debido a las


colisiones de Coulomb elásticas en las que se imparte energía de retroceso a los átomos

Transferencia lineal de energía


La transferencia lineal de energía (LET, Linear Energy Transfer) o poder de frenado lineal
electrónico restringido, L∆ , de un material para partículas cargadas: se define como el
cociente de dE∆ entre dl, donde dE∆ es la energía perdida por una partícula cargada
debido a colisiones (excitaciones e ionizaciones) con electrones al atravesar una longitud
dl, en la cual la energía transferida a los electrones secundarios no excede un valor ∆.

[18]

Su unidad es J m−1. E∆ puede estar expresado en eV, y entonces L∆ puede expresarse en


eV m−1 o cualquier múltiplo o submúltiplo convenientes, como keV m−1. La transferencia
lineal de energía se utiliza para calcular la energía transferida a una región de interés
localizada.

Energía media disipada en un gas por par de iones formado


La energía media disipada en un gas por par de iones formado (W): es el cociente de E
entre , donde es el número medio de pares de iones que se forman cuando la
energía cinética inicial E de una partícula cargada se ha disipado por completo en el seno
del gas.
[19]

Su unidad es el J, pero también puede expresarse en eV.


Cabe destacar que W se define para partículas cargadas y depende del gas para una
determinada partícula y energía. Por ejemplo, para electrones producidos en aire seco
por rayos X de hasta 50 MeV, puede considerarse que W es constante y toma un valor de
34 eV por par ion-electrón formado.

3.3. Magnitudes dosimétricas


Los efectos de la radiación sobre la materia dependen del campo de radiación, que puede
describirse en función de las magnitudes radiométricas del apartado 3.1, «Magnitudes
radiométricas», y de las interacciones de la radiación y la materia, caracterizadas por los
coeficientes de interacción mencionados en el apartado anterior. Las magnitudes
dosimétricas se han introducido para proporcionar una medida física que se correlacione
con los efectos reales o potenciales de la radiación, y se expresan como producto de
magnitudes radiométricas y coeficientes de interacción. Aunque si bien es cierto que se
calculan de este modo, no se definirán de la misma manera, ya que lo usual es que se
midan directamente.
La radiación interacciona con la materia mediante una serie de procesos en los que la
energía de la partícula es convertida y finalmente depositada en la materia. Atendiendo a
esta consideración, la ICRU clasifica las magnitudes dosimétricas en dos grupos: de
conversión de energía y de cesión de energía.

Magnitudes dosimétricas de conversión de energía

Kerma (Kinetic Energy Released per Mass Unit)


El kerma, K, es el cociente de dEtr entre dm, donde dEtr es la suma de las energías
cinéticas iniciales de todas las partículas ionizantes cargadas liberadas por partículas
ionizantes no cargadas en un material de masa dm.

[20]

Su unidad es J kg−1 y recibe el nombre especial de Gray (Gy).


La mayor parte de la energía cinética inicial de los electrones cuando se propagan en
materiales de bajo número atómico (aire, agua o tejidos blandos) es empleada en
colisiones inelásticas (ionizaciones y excitaciones) con los electrones atómicos del medio.
Sólo una pequeña parte es transformada en colisiones radiativas con los núcleos
atómicos (bremsstrahlung). De esta forma, el kerma puede dividirse en dos componentes:

donde kcol y k rad son el kerma de colisión y de radiación, respectivamente.


Cabe señalar que kerma es una magnitud que se define para radiación ionizante no
cargada (fotones y neutrones), y representa la energía transferida por unidad de masa a
un punto de un material (fuente de energía)

Tasa de kerma ( )
La tasa de kerma ( ) es el cociente de dK entre dt, donde dK es el incremento de kerma
en el intervalo de tiempo dt.

[21]

Su unidad en el SI es J kg−1 s−1 y recibe el nombre especial de gray por segundo (Gy s−1).

Exposición (X)
Se define como el cociente de dQ entre dm, donde dQ es el valor absoluto de la carga
total de los iones de un mismo signo producidos en aire, cuando todos los electrones y
positrones liberados o creados por los fotones incidentes en una masa dm de aire han
sido detenidos por completo en el seno de aire.

[22]

Su unidad1 es C kg−1.
Debe excluirse de dQ tanto la ionización que se debe a la reabsorción de la radiación
de frenado, sólo significativa a altas energías, como la que procede de los fotones
dispersos.
La exposición es una magnitud creada para caracterizar haces de fotones (rayos X y
gamma) a partir de la medida de la ionización producida en aire en una cavidad.
Para energías de fotones de 3 MeV o menores, la exposición es el equivalente de
ionización del kerma de colisión en aire, es decir, la exposición puede calcularse a partir
del Kcol si se conoce la carga de ionización producida por unidad de energía depositada
por los fotones. Si e es la carga del electrón y W la energía necesaria para producir un par
ion-electrón en aire, entonces W/e es la energía promedio que se requiere por unidad de
carga de ionización producida. Teniendo esto en cuenta, la exposición puede calcularse
como:

[23]

Tasa de exposición
La tasa de exposición ( ) es el cociente de dX entre dt, donde dX es el incremento de
exposición en el intervalo de tiempo dt.

[24]

Su unidad es C kg−1 s−1, pero los detectores antiguos pueden proporcionar la medida en
otras unidades, como R/min o mR/h.

Magnitudes dosimétricas de depósito de energía

Dosis absorbida (D)


Es el cociente de d entre dm, donde d es la energía media impartida por la radiación
ionizante a un material de masa dm.

[25]

Su unidad2 es J kg−1, que como ya se ha indicado anteriormente recibe el nombre de


Gray (Gy).
La dosis absorbida es una magnitud válida para todo tipo de partículas y no es
específica de un medio material concreto, como ocurre en el caso de la exposición, que
sólo se define en aire. Si el medio es aire, entonces la exposición puede relacionarse con
la dosis absorbida de la siguiente forma: puesto que la energía necesaria para producir
un par ion-electrón en aire es, aproximadamente, 34 eV/par, o lo que es lo mismo, 34 J/C,
se tiene que:
[26]
Para expresar la relación entre dosis absorbida en aire y exposición empleando las
unidades antiguas, debe tenerse en cuenta que 1 R = 2,58 10−4 C/kg,1 C/kg = 34 Gy y
1 Gy = 100 rad.

[27]

Tasa de dosis absorbida ( )


Es el cociente de dD entre dt, donde dD es el incremento de dosis absorbida en el
intervalo de tiempo dt.

[28]

Su unidad es J kg−1 s−1 o Gy s−1.

3.4. Magnitudes y unidades en radiactividad


El término «radiactividad» se refiere a los fenómenos asociados con las transformaciones
espontáneas que implican cambios en los núcleos o en la estructura de capas de los
átomos, o en ambos. La energía liberada en dichas transformaciones es emitida como
partículas (electrones, positrones, partículas alfa) o como fotones, o como ambos.
Algunas de las magnitudes y unidades de interés en el campo de la radiactividad ya se
han definido en el capítulo 1, por lo que sólo se citarán brevemente a modo de
recordatorio:
• Constante de decaimiento o desintegración, λ, cuya unidad es s−1.
• Periodo de semidesintegración, T1/2, cuya unidad es s.
• Actividad, A, cuya unidad es s−1, y recibe el nombre especial de Becquerelio (Bq). La
unidad antigua de actividad es el Curio (Ci): 1 Ci = 3,70 1010 Bq.
• Actividad específica, a, definida como la actividad por unidad de masa de una muestra.
Su unidad es el Bq kg−1.
• Constante de tasa de kerma en aire, Γδ , de un radionúclido emisor de fotones, que es la
tasa de kerma en aire debida a fotones de energía superior a δ, a una distancia l de una
fuente puntual de este nucleido en el vacío, cuya actividad sea A. Su unidad es m2 J kg−1
o m2 Gy Bq−1 s−1.
[29]

• tante de tasa de exposición, , definida como la tasa de exposición en un punto a un


metro, a partir de una fuente puntual de un 1 Ci. Su unidad es C kg−1 m2 Bq−1.

[30]

Para ambas constantes, el subíndice δ implica que se ha supuesto que todos los rayos X
o gamma emitidos por la fuente con energía superior a δ contribuyen a la exposición,
mientras que los que tengan una energía inferior no son lo suficientemente penetrantes
como para ser de interés práctico. Dichas constantes son características de cada
radionúclido.
A partir de las definiciones anteriores puede calcularse la exposición o el kerma en aire
a una determinada distancia, l, de una fuente puntual radiactiva que emita radiación
gamma con una actividad A, como:

[31]

Las definiciones anteriores de tasa de kerma en aire y tasa de exposición llevan


implícitas las siguientes hipótesis:
• Se considera que la fuente es puntual, es decir, puede aplicarse la ley del inverso del
cuadrado de la distancia.
• No hay atenuación de los rayos X o gamma en el aire o en el material que existe entre la
fuente y el punto donde quiere calcularse la tasa de exposición.
• Sólo se consideran los fotones que van desde la fuente al punto de medida, es decir, se
desprecia la radiación dispersa que pueda aparecer en el material circundante.
4. Magnitudes específicas en protección
radiológica
En el campo de la radioprotección, la ICRU ha trabajado conjuntamente con la ICRP para
proporcionar recomendaciones en cuanto a las magnitudes y unidades más apropiadas
en este campo.
La dosis absorbida sería la magnitud física básica, pero no es totalmente satisfactoria
para los propósitos de la radioprotección. Para relacionar la dosis de radiación con el
riesgo asociado a ella (detrimento), no sólo se está interesado en los efectos físicos, sino
que también es necesario tener en cuenta las variaciones en la eficacia biológica de las
radiaciones de diferente naturaleza, así como la diferencia en la sensibilidad de los
distintos órganos y tejidos a la radiación ionizante. Por este motivo, en el campo de la
protección radiológica se definen las magnitudes que se detallan a continuación.

4.1. Equivalente de dosis


Como ya se ha comentado, en el ámbito de la protección radiológica interesa conocer el
daño biológico que puede producir la radiación ionizante sobre los tejidos. Se sabe que
para igual dosis absorbida el daño es distinto según el tipo de radiación ionizante; por
ejemplo, los haces de neutrones son más perjudiciales que los de la radiación X. Además,
el efecto biológico también depende de otros factores como la calidad de la radiación y
las condiciones ambientales (temperatura, grado de oxigenación…).
Para tener todo esto en cuenta se introdujo la magnitud equivalente de dosis, H, que se
define como el producto de la dosis absorbida en un punto en un tejido, D, por un factor
adimensional, Q, donde Q es el factor de calidad y es específico para cada tipo de
radiación.

[32]
El factor de calidad se introduce para cuantificar la mayor o menor eficacia biológica de
las partículas cargadas generadas en el proceso de absorción de energía, de modo que
toma el valor 1 para fotones y electrones, 10 para neutrones, protones y partículas alfa, y
20 para núcleos pesados. Además, este factor sólo tiene significado y puede ser aplicado
en radioprotección, y para dosis inferiores o comparables a las dosis límite establecidas
para exposiciones individuales. Por tanto, no puede utilizarse en caso de irradiación
accidental ni para los tratamientos administrados en radioterapia.
Si la dosis absorbida se mide en Gy3, entonces la unidad especial de dosis equivalente
es el Sievert (Sv), que en unidades del SI sigue siendo J/kg. Un Sievert se define como la
dosis absorbida de un Gy, para una radiación que tenga un factor de calidad de 1. Es
decir:
A partir de la expresión de equivalente de dosis (ecuación 32), y teniendo en cuenta los
valores de la tabla 3-3, puede observarse que para la misma dosis absorbida en un punto,
la radiación alfa o de neutrones provocará un detrimento 10 veces mayor que el
que provocaría la radiación gamma o la radiación de electrones, ya que la radiación alfa o
los neutrones producen ionizaciones muy próximas espacialmente y, por tanto, dan lugar
a una mayor probabilidad de daño irreversible a los cromosomas o de menor posibilidad
de reparación de tejido sano.

Tabla 3-3
Factores ponderales de radiación, extraídos de la ICRP (publicación n.° 60, 1991)

Tipo y rango de energías Factor ponderal de la radiación (WR)


Fotones, todas las energías 1
Elec trones y muones, todas las energías 1
Neutrones * , energías
<10 keV 5
10 keV a 100 keV 10
>100 keV a 2 MeV 20
>2 MeV a 20 MeV 10
>20 MeV 5
Protones distintos de los de retroc eso, energía >2 MeV 5
Partíc ulas alfa, fragmentos de fisión y núc leos pesados 20
*
Las recomendaciones más recientes de la ICRP, contenidas en la publicación número 103 (ICRP, 2007), modifican W R
para los protones, de manera que pasa de un valor de 5 a 2; y para los neutrones, para los que W R se caracteriza por una
función continua en lugar de los puntos discretos indicados en la tabla

4.2. Magnitudes limitadoras


Son magnitudes en cuyas unidades la ICRP recomienda expresar los límites individuales
de dosis que posteriormente son recogidos en las normativas internacionales y
nacionales.

Dosis equivalente en un órgano o tejido


En las recomendaciones básicas de la ICRP (Report 60, 1991) se especifica que, a efectos
de protección radiológica, no es el equivalente de dosis en un punto, sino su valor
promedio en un tejido u órgano, la magnitud de interés a la hora de controlar la
exposición a la radiación ionizante. Por consiguiente, introduce una nueva magnitud que
denomina dosis equivalente en un órgano o tejido, HT, que se define como el producto de la
dosis absorbida media (DT,R) producida por la radiación R en ese tejido u órgano T por un
factor de ponderación de radiación, WR, que es función del tipo y de la energía de la
radiación incidente:
[33]
Su unidad es el Sievert (Sv).
WR es un factor sin dimensiones que refleja la eficiencia de una radiación para
producir daño biológico. Sus valores para los distintos tipos de radiación se encuentran
detallados en la tabla 3-3.
Si un órgano es irradiado por un campo de radiación que se compone de distintos tipos
y energías de radiación, y por tanto con diferentes valores de WR, la dosis equivalente
total debe calcularse como la suma de las dosis absorbidas debido a un tipo de radiación
multiplicada por su correspondiente valor WR, y todo ello sumado para todos los tipos de
radiación que compongan el campo, es decir:

[34]

Tasa de dosis equivalente,


Se define como la variación de la dosis equivalente, dH, en el intervalo de tiempo dt.

[35]

Su unidad es Sv s−1.

Dosis equivalente comprometida


Es la magnitud que se utiliza para calcular la dosis en caso de incorporación de
radionúclidos en el organismo a través de las vías respiratorias, del tracto
gastrointestinal o de la piel.
Los radionúclidos incorporados pueden irradiar los tejidos del cuerpo humano
durante lapsos de tiempo, determinados por el periodo de semidesintegración físico y la
permanencia biológica dentro del cuerpo. Por tanto, pueden dar lugar a dosis en los
tejidos del cuerpo durante muchos meses o años después de la incorporación. La dosis
equivalente comprometida, HT(τ), se define como la integral en el tiempo de la tasa de dosis
equivalente en un órgano o tejido particular como consecuencia de la incorporación de
material radiactivo, donde τ es el tiempo de integración expresado en años.
[36]

Cuando no se especifica el valor de τ se sobreentiende un periodo de 50 años para los


adultos y hasta la edad de 70 años para los niños.

Dosis efectiva
La relación entre los efectos de las radiaciones (probabilidad de aparición de efectos
estocásticos) y la dosis equivalente también depende del órgano o tejido irradiado. Es
decir, cuando somos irradiados, no todos nuestros órganos responden de la misma
forma, sino que unos son más radiosensibles que otros. Por tanto, resulta apropiado
definir otra magnitud, derivada de la dosis equivalente, para indicar la combinación de
distintas dosis equivalentes en varios tejidos diferentes. El factor utilizado para ponderar
la dosis equivalente en un tejido u órgano se conoce como factor de ponderación de
tejido, WT. Este factor representa la contribución relativa de un órgano o tejido al daño
biológico total resultante de la irradiación uniforme del cuerpo entero. La ponderación se
efectúa de manera que, sumada a todos los tejidos, se obtiene:

[37]

La dosis efectiva, E, se define como la suma de las dosis equivalentes en órgano o


tejido, multiplicadas por el factor ponderal del tejido WT, en todos los tejidos y órganos
del cuerpo.

[38]

Su unidad es el Sievert (Sv).


Los factores ponderales de los tejidos, WT, se encuentran tabulados en el report
publicación n° 60 de la ICRP. A pesar de depender del sexo y de la edad del individuo,
para los propósitos de protección radiológica se consideran valores medios promediados
para ambos sexos y todas las edades, y son aplicados a la población promedio. Sus
valores se encuentran especificados en la tabla 3-4.
Tabla 3-4
Factores ponderales de tejidos

Tejido u órgano Factor ponderal de tejido (WT)


Gónadas 0,08
Médula ósea roja 0,12
Colon 0,12
Pulmón 0,12
Estómago 0,12
Vejiga 0,04
Mama 0,12
Hígado 0,04
Esófago 0,04
Tiroides 0,04
Piel 0,01
S uperfic ie ósea 0,01
Cerebro 0,01
Glándulas salivares 0,01
Resto del c uerpo 0,12

Valores según las recomendaciones más recientes de la ICRP, contenidas en la publicación número 103 (ICRP, 2007).

La dosis efectiva, E, se acepta como el mejor parámetro para caracterizar la


probabilidad de aparición de efectos biológicos en valores de dosis habituales laborales
(dosis por debajo del umbral de los efectos deterministas o no estocásticos). Por ese
motivo, los límites de dosis anuales, tanto para la exposición ocupacional como para los
miembros del público, se expresan en términos de dosis efectivas. Sin embargo, los
límites de dosis establecidos para un órgano, manos o pies, se enuncian en términos de
dosis equivalente.

Dosis efectiva comprometida


La dosis efectiva comprometida, E(τ), se define como los productos de las dosis
equivalentes comprometidas en órganos y tejidos por los factores de ponderación
correspondientes (WT), donde τ es el tiempo de integración, en años, después de la
incorporación. El periodo de compromiso se toma como 50 años para los adultos y hasta
la edad de 70 años para los niños.

[39]

Dosis efectiva colectiva


Las magnitudes en protección radiológica presentadas hasta ahora están relacionadas
con la exposición de un individuo. Las dosis colectivas se relacionan con la exposición de
grupos o poblaciones expuestas.
La dosis efectiva colectiva, S, se define como la suma de las dosis efectivas medias en
un subgrupo i (Ei) por el número de individuos en ese subgrupo (Ni).
[40]

La unidad de dosis efectiva colectiva recibe el nombre especial de Sievert-persona (Sv


persona).

4.3. Magnitudes operacionales


Las magnitudes limitadoras dosis equivalente y dosis efectiva no pueden ser medidas
directamente en los tejidos del cuerpo, ya que habría que situar el detector dentro de
ellos. Por este motivo, la ICRU ha definido un grupo de magnitudes que pueden
proporcionar en la práctica una sobrestimación de las magnitudes limitadoras, HT y E,
para un trabajador profesionalmente expuesto y situado en un campo de radiación
variable y arbitrario.
Las magnitudes operacionales se han definido para realizar medidas prácticas en la
vigilancia individual y de área. Se basan en el equivalente de dosis en un punto de un
maniquí, denominado esfera ICRU4, o del cuerpo humano, y se relacionan con el tipo y la
energía de la radiación existente en ese punto; por lo tanto, pueden calcularse basándose
en la fluencia en ese punto.

Vigilancia de área
Para la vigilancia de área es útil descomponer el campo de radiación real en ciertos
campos ficticios de radiación, denominados:
• Campo expandido: simplifica una situación real al suponer que el campo sobre todo el
cuerpo irradiado (o la esfera ICRU) tiene la misma fluencia y distribución angular y
energética que el campo real en el punto de medida (punto de referencia).
• Campo alineado (o campo expandido y alineado): tiene la misma fluencia y distribución
energética que el campo real, pero la fluencia es unidireccional, es decir, se supone que
toda la radiación procede de la misma dirección. Mediante este concepto puede
correlacionarse la medida hecha en un instrumento dotado de respuesta isótropa
(independiente de la dirección incidente de la radiación) y la magnitud que se desea
medir en el interior de la esfera ICRU.

Equivalente de dosis ambiental


El equivalente de dosis ambiental, H*(d), en un punto en un campo de radiación se
define como el equivalente de dosis que sería producido por el correspondiente campo
alineado y expandido en la esfera ICRU a una profundidad d, sobre el radio opuesto a la
dirección del campo alineado. La unidad en el SI es J kg−1 y su nombre especial es Sievert
(Sv).
Para radiación fuertemente penetrante se recomienda una profundidad de 10 mm, y
para débilmente penetrante (fotones de energía inferior a 15 keV y radiación beta) se
emplean 0,07 mm para la piel y 3 mm para el cristalino. En estos casos, el equivalente de
dosis ambiental se expresa como H*(10), H*(0,07) o H*(3), respectivamente.
La medida de H*(d) requiere generalmente que el campo de radiación sea uniforme
sobre las dimensiones del instrumento, y que este tenga respuesta isótropa.

Equivalente de dosis direccional


El equivalente de dosis direccional, H’(d,Ω), en un punto de un campo de radiación es el
equivalente de dosis que se produciría por el correspondiente campo expandido en la
esfera ICRU a la profundidad d, sobre un radio dirigido en una dirección especificada, Ω,
siendo Ω el ángulo entre la dirección del haz y el radio de la esfera ICRU sobre la que se
define la profundidad d.
Su unidad en el SI es J kg−1 y su nombre especial es Sievert (Sv). Cualquier expresión
del equivalente de dosis direccional debe especificar la profundidad, d, y la dirección, Ω.
Para simplificar la notación, d debe expresarse en mm. Las profundidades recomendadas
para radiación débilmente penetrante para cristalino y piel, y para radiación fuertemente
penetrante, son las mismas que para la magnitud equivalente de dosis ambiental.
La medida de H’(d,Ω) requiere que el campo de radiación sea uniforme sobre las
dimensiones del instrumento, y que este tenga la respuesta direccional requerida.

Vigilancia individual

Equivalente de dosis personal


El equivalente de dosis personal, Hp(d), es el equivalente de dosis en tejido blando, por
debajo de un punto especificado del cuerpo y a una profundidad apropiada d.
La unidad en el SI es el J kg−1, y su nombre especial es Sievert (Sv). La profundidad
para radiaciones fuertemente penetrantes es 10 mm, y para débilmente penetrantes es de
0,07 mm para la piel y 3 mm para el cristalino. El equivalente de dosis personal se denota
como Hp(10), Hp(0,07) y Hp(3).
Hp(d) puede medirse con un detector situado en la superficie del cuerpo y cubierto por
un espesor apropiado de material equivalente a tejido.
5. Resumen
• Los resultados de una medición deben expresarse mediante la magnitud medida
seguida de su correspondiente unidad, expresada en unidades del SI, o unidades
derivadas de este, ya que es el conjunto de magnitudes y unidades adaptado por toda
la comunidad científica.
• La ICRU define las magnitudes y unidades utilizadas en el campo de las radiaciones
ionizantes. Las clasifica en cuatro grupos:
• Magnitudes radiométricas: empleadas para describir un campo de radiación (número
y energía de las partículas que lo componen junto con sus distribuciones espaciales y
temporales).
• Coeficientes de interacción: son el nexo de unión entre las magnitudes radiométricas
y las dosimétricas. Cabe destacar la sección eficaz y el coeficiente de atenuación
lineal.
• Magnitudes dosimétricas: proporcionan una medida física de los efectos de la
radiación. Se dividen en dos grupos: de conversión de energía (kerma y exposición) y
de depósito de energía (dosis absorbida).
• Radiactividad.
• La ICRU y la ICRP definen las magnitudes en el campo de la radioprotección. Se
distingue entre magnitudes limitadoras (dosis equivalente en un órgano o tejido y
dosis efectiva) y magnitudes operacionales (equivalente de dosis ambiental, direccional
o personal).
Bibliografía
Brosed A, Fernández-Varea JM, González Leitón AM, Gracia Ezpeleta A. Fundamentos de física médica. Vol. 1: Medida de la
radiación. Madrid: ADI; 2011.
Bureau International des Poids et Mesures. The International System of Units. 8 th ed. Paris: BIPM STDI Media; 2006:
Disponible en: http://www.bipm.org/utils/common/pdf/si_brochure_8.pdf.
ICRU (1998). International Commission on Radiation Units and Measurements. Fundamental quantities and units for
ionizing radiation. ICRU Report 60. Bethesda, Maryland: International Commission on Radiation Units and
Measurements; 1998.
Seltzer SM, Menzel HG, Paretzke HG, Wambersie A. Fundamental quantities and units for ionizing radiation (Report 85).
Journal of the ICRU. 2011;Vol. 11: No.
Thompson A, Taylor BN. Guide for the use of the International System of units (SI). 2008 Edition. (Special publication
811). Gaithersburg, MD: National Institue of Standards & Technology, section 6.1.2. Disponible en:
http://physics.nist.gov/cuu/pdf/sp811.pdf

1
La antigua unidad de exposición, que todavía puede encontrarse en algunos medidores de radiación, es el Röntgen (R),
que corresponde a la formación de una unidad electrostática de carga (ues) de cada signo, en un cm 3 de aire en
condiciones estándar de temperatura y presión (STP: T = 0 ˚C; p = 760 mmHg). Aplicando la definición anterior, y
teniendo en cuenta que 1 ues equivale a 3,33 10 −10 C y que la densidad del aire en condiciones STP es 1,293 kg/m 3, puede
hallarse la equivalencia entre el röntgen y la unidad de exposición en el SI:

1 R = 2,58
10 −4 C/kg, o la equivalencia inversa, 1 C/kg = 3,88 10 3 R
2
La unidad antigua de dosis absorbida es el rad, que se define como la absorción de 100 ergios de energía por gramo de
material absorbente. Por tanto, la equivalencia entre ambas unidades, teniendo en cuenta que 1 J = 10 7 erg (el ergio es la
unidad de energía en el sistema cegesimal de unidades: centímetro, gramo, segundo), es:

3
Si la dosis absorbida se mide en rad, entonces la unidad antigua de equivalente de dosis es el rem (rad equivalent man).
Un rem se define como la dosis absorbida de un rad para una radiación con un factor de calidad de 1.

4
La esfera ICRU es una esfera equivalente a tejido de 30 cm de diámetro, de densidad 1 g/cm 3 y de una composición en
masa de 76,2% de oxígeno, 11,1% de carbono, 10,1% de hidrógeno y 2,6% de nitrógeno.
C AP Í T U L O 4
Detección y medida de la radiación
Patricia Sánchez Rubio

Jaime Martínez Ortega

María Monedero Pinto

ÍNDICE
1. Introducción 32
2. Detección y medida 32
2.1. Modelo simplificado de detector 32
2.2. Modos de operación 33
2.3. Resolución en energía 33
2.4. Eficiencia 34
2.5. Tiempo muerto 35
3. Tipos de detectores 36
3.1. Detectores de ionización gaseosa 36
3.2. Estructura de bandas en los sólidos 39
3.3. Detectores de semiconductor 40
3.4. Detectores de luminiscencia 41
3.5. Detectores de película 44
3.6. Detectores de neutrones 47
4. Detectores en el ámbito hospitalario 47
4.1. Sistemas de dosimetría en radioterapia 48
4.2. Monitores de radiación ambiental 48
4.3. Monitores de contaminación 48
4.4. Dosímetros personales 49
5. Resumen 49
Bibliografía 50
1. Introducción
Las radiaciones ionizantes no son perceptibles por los sentidos, por lo que es necesario el
empleo de instrumentos de medida adecuados. En el ámbito hospitalario, el objetivo de
la detección de la radiación es, en última instancia, conocer los efectos de esta sobre el
cuerpo humano. Para ello, la noción de la fluencia de las partículas y su distribución
energética ayudará al conocimiento de dichos efectos.
El objetivo del capítulo es que el lector conozca los principios físicos de
funcionamiento y las características de los detectores empleados en el campo de la
dosimetría y detección de las radiaciones ionizantes.
2. Detección y medida
Los diferentes detectores están diseñados basándose en el conocimiento de los
mecanismos de interacción de la radiación con la materia y en la medición del fenómeno
físico que se produce como consecuencia de dicha interacción. Los diferentes fenómenos
físicos que se aprovechan para detectar y medir la radiación son:
• Creación de carga debido a las ionizaciones de los átomos del medio, generalmente
gaseoso, por la radiación ionizante. La colección de la misma da lugar a la medida de
una corriente eléctrica o impulso de voltaje.
• Luminiscencia generada en el proceso de excitación de los electrones a niveles
energéticos superiores y su posterior desexcitación. La detección de la radiación se
consigue mediante la medida de la intensidad de la luz originada en el proceso de
desexcitación.
• Disociación de la materia debida a que la radiación ionizante rompe los enlaces
químicos, dando lugar a la formación de radicales libres de gran reactividad química.
Estas alteraciones en la constitución de la materia permiten la detección de la
radiación.
Los detectores siempre llevan asociados sistemas electrónicos para el control y el
tratamiento de las señales producidas, de manera que el detector con su electrónica
asociada constituye el sistema de detección. A la hora de elegir un sistema de detección
de radiación, debe tenerse en cuenta que su respuesta puede variar en función del tipo y
de la energía de la radiación, la tasa de emisión, la geometría y las condiciones
ambientales en que se realiza la medida.

2.1. Modelo simplificado de detector


En una amplia categoría de detectores, el efecto final de la interacción de la radiación es
la producción de carga eléctrica de forma directa o indirecta dentro del volumen activo
del detector. Por este motivo, el funcionamiento de un detector puede esquematizarse de
la siguiente manera: considérese una sola partícula en el interior del detector, de modo
que al interaccionar con este genera una carga Q, la cual debe ser colectada para
proporcionar una señal eléctrica. Habitualmente, la colección de la carga se realiza
aplicando un campo eléctrico en el interior del detector, que provoca que las cargas
positivas y negativas liberadas por la radiación fluyan en la dirección de los electrodos de
signo opuesto a las cargas. En el proceso de colección se producirá una corriente
eléctrica, I, que será constante durante el tiempo que dure dicho proceso, y que una vez
finalizado será nula (fig. 4-1). El tiempo necesario para la colección total de la carga, tc ,
varía ampliamente de unos detectores a otros. Por ejemplo, en una cámara de ionización el
tiempo de colección de carga es del orden de milisegundos, mientras que en los detectores
de semiconductor es de nanosegundos. Este tiempo es un indicador tanto de la movilidad
de los portadores de carga dentro del volumen activo como de la distancia promedio que
deben recorrer antes de llegar a los electrodos de colección.
FIGURA 4-1 En una situación real, al detector llega un haz de partículas, cada una de las cuales, al
interaccionar con el detector, dará lugar a la formación de un pulso de corriente. Puesto que el
fenómeno de interacción es aleatorio, la separación entre pulsos también. La figura representa una
situación en la que la tasa de llegada de las partículas es lo suficientemente alta como para que
algunos pulsos de corriente se solapen.

La integral de la corriente eléctrica, I, durante el tiempo de colección de carga, tc , es la


carga, Q, generada en la interacción:

[1]

En una situación real, muchas partículas interaccionarán en un determinado intervalo


de tiempo, de manera que, dependiendo de su tasa de llegada, los pulsos de intensidad
pueden solaparse o estar espaciados. El espaciado temporal entre los sucesivos pulsos es
aleatorio, como se observa en la figura 4-1.

2.2. Modos de operación


Modo corriente
En este modo, la magnitud observada a la salida del dispositivo es la corriente promedio
debida a la interacción de varias partículas, que puede calcularse como:

[2]

donde I 0 es la corriente promedio, r es la tasa de eventos, Q es la carga producida en


cada evento, ɛ es la energía promedio depositada por evento, W es la energía promedio
necesaria para producir un par de carga (p. ej., W = 34 J/C para crear un par ion-electrón
en aire), y q es la unidad de carga elemental (1,6 10−19 C).
Los detectores que trabajan en este modo se usan para dosimetría. Presentan la ventaja
de poder utilizarse cuando la tasa de eventos es elevada; sin embargo se pierde la
información individual de los eventos ionizantes.

Modo pulso
En este modo, el dispositivo de medida está diseñado para resolver cada una de las
partículas que interacciona en el medio, es decir, se registra la carga liberada en cada
suceso ionizante de acuerdo con la ecuación 1. El registro de la carga total es un
indicador de la energía depositada en el detector.
Los detectores que trabajan en modo impulso permiten conocer la energía de las
partículas que inciden sobre él, y a este tipo de detectores se les denomina
espectrómetros. Por otro lado, como cada partícula registrada da lugar a un pulso, esto
permite «contar» partículas individuales, por lo que también se los llama contadores.
La amplitud del pulso de salida, V, puede calcularse como el cociente de la carga total
creada en el detector durante una interacción dividida por la capacidad eléctrica del
circuito al que se encuentra conectado el detector:

[3]

Puesto que C toma un valor fijo y constante, la amplitud del pulso de salida es
directamente proporcional a la carga generada dentro del detector.
La mayoría de los detectores trabajan en este modo de operación debido a las ventajas
inherentes que presenta: gran sensibilidad, es decir, permite detectar bajos niveles de
radiación de fondo, y la más importante, la posibilidad de obtener información a partir
de la amplitud de cada pulso individual, no como en el modo corriente, en el cual todas
las interacciones, independientemente de la amplitud del pulso a la que den lugar,
contribuyen a la corriente promedio de salida.

2.3. Resolución en energía


El objetivo de algunos detectores es medir la distribución energética de las partículas o
radiación incidente, obteniendo espectros diferenciales de amplitud de impulsos, es
decir, el número de pulsos cuyas amplitudes se encuentran en un determinado rango de
valores de energía.
La resolución en energía, R, es la capacidad de un detector para distinguir dos pulsos
cuyas energías estén muy próximas, y se define como la anchura a mitad de altura del
pulso, FWHM (Full Width at Half Maximum), dividida por la posición (energía) del
centroide, H0 (fig. 4-2A). La resolución en energía es un parámetro adimensional y suele
expresarse como porcentaje:

[4]

FIGURA 4-2 A) Definición de resolución de un detector. Para pulsos cuya forma sea una gaussiana
con desviación estándar σ, la FWHM es 2,35 σ. B) Función respuesta de diferentes detectores, de
modo que cuanto mayor es el valor de σ, peor es la resolución energética del detector.

En un proceso de detección, las medidas se distribuyen en torno a un valor medio, E0,


según una distribución gaussiana cuya desviación estándar, σ, es un parámetro que
indica cuánto se alejan las medidas del valor medio. En este caso, la FWHM puede
calcularse como 2,35 σ; cuanto más estrecha sea la gaussiana, σ tomará un valor más
pequeño y por tanto menor será el valor de R, lo que señala que la resolución del detector
es mejor, como se muestra en la figura 4-2B. Una regla aproximada indica que dos
energías pueden resolverse cuando están separadas en más de una FWHM.
Existen diversas fuentes de ruido que hacen que la resolución del detector no sea
perfecta:
• Cambios del punto de trabajo, es decir, cambios en el valor de corriente o tensión a la
que trabaja el detector durante la medida.
• Ruido aleatorio o señal espuria (en general, por «ruido» se entiende cualquier
perturbación que interviene en la señal que se desea procesar), debido a la electrónica
del detector.
• Ruido estadístico procedente de la naturaleza estadística de la medida, es decir, la carga
generada en el detector es discreta y variable. Este tipo de ruido estadístico no puede
evitarse, pero sí es posible reducirlo aumentando el número de medidas realizadas.
2.4. Eficiencia
Por lo general, no toda la radiación procedente de una fuente alcanza el detector, y no
toda la radiación que alcanza al detector interacciona con él. Por consiguiente, se define
el parámetro de eficiencia, que permite relacionar el número de pulsos contados con el
número de eventos ionizantes que alcanzan el detector. Se distinguen dos tipos de
eficiencia de contajes: eficiencia absoluta y eficiencia intrínseca.

Eficiencia absoluta

[5]

Esta eficiencia no sólo depende de las propiedades intrínsecas del detector, sino
también de la geometría de contaje (fundamentalmente de la distancia entre la fuente y
el detector).

Eficiencia intrínseca

[6]

La eficiencia intrínseca depende esencialmente del material del detector, de la energía


de la radiación y del espesor del detector en la dirección de la radiación incidente.
Presenta una menor dependencia que la eficiencia absoluta con la distancia entre la
fuente y el detector.

2.5. Tiempo muerto


El tiempo muerto se define como el tiempo mínimo que debe transcurrir entre dos
eventos para que sean registrados como pulsos diferentes. Esta limitación temporal
puede deberse al propio detector, según el proceso físico que tenga lugar en él, o la
electrónica asociada encargada del procesado y el registro del pulso.
Debido a la naturaleza aleatoria de los procesos de desintegración radiactiva, siempre
existe la probabilidad de que se pierda algún evento verdadero si este ocurre
rápidamente después del anterior, de manera que estén muy próximos entre sí. Esta
situación se agrava en el caso de altas tasas de contaje, de manera que si se desea realizar
unas medidas de contaje precisas, deben ser corregidas por las pérdidas debidas al
tiempo muerto.

Modelos de tiempo muerto


Son modelos que permiten conocer el número real de eventos, n, a partir del número de
pulsos registrados, m, y el tiempo de resolución del sistema o tiempo muerto (τ).

Modelo no paralizable
Si τ es el tiempo que dura un evento verdadero, y por tanto el tiempo durante el cual el
detector no está operativo, los eventos que tengan lugar durante ese intervalo temporal
se perderán y no tendrán ningún efecto sobre el comportamiento del detector. De
acuerdo con este modelo, en el ejemplo de la figura 4-3A el detector registraría m = 4
eventos de las n = 6 interacciones verdaderas.

FIGURA 4-3 A) Modelos de tiempo muerto para un detector de radiación; τ es el tiempo que dura
un evento verdadero y durante el cual el detector no está operativo. B) Variación de la tasa de contaje
observada, m, en función de la tasa verdadera, n, según si la respuesta del detector se ajusta al
modelo paralizable o no paralizable.

De forma general, si se registran m eventos, el tiempo durante el cual el detector no


estará operativo será mτ. Ahora bien, si han llegado al detector n eventos durante
el tiempo que el detector ha permanecido insensible (mτ), el número de eventos
verdaderos que se habrán perdido será nmτ. Por otro lado, el número de eventos
perdidos puede calcularse como n − m, por lo que:

[7]

Modelo paralizable
En el modelo paralizable, los eventos que tienen lugar durante el tiempo muerto no sólo
no son registrados, sino que extienden el tiempo muerto otro periodo τ, y por tanto se
produce la pérdida de los eventos que tienen lugar a continuación, como se observa en la
figura 4-3A. Continuando con el ejemplo anterior, sólo se registrarían m = 3 de los n = 6
eventos verdaderos.
En este caso, los periodos de tiempo muerto no tienen una longitud fija, por lo que no
puede aplicarse el mismo argumento que en el modelo no paralizable. La expresión que
relaciona el número de eventos registrados, m, con el número de eventos verdaderos, n,
es:

[8]
En la figura 4-3B se representa la tasa de impulsos registrados, m, versus la tasa de
eventos verdaderos, n. Cuando las tasas son bajas, los dos modelos dan los mismos
resultados. Para una tasa observada de m = 1/τ, el sistema no paralizable se aproxima a
un valor asintótico que representa la situación en la que el contador apenas tiene tiempo
para finalizar un periodo muerto antes de comenzar con el siguiente, mientras que para
esa misma tasa se observa un máximo en m para el sistema paralizable. En los sistemas
de contaje que se comportan según modelos paralizables, tasas de interacción verdaderas
muy altas dan lugar a una extensión del tiempo muerto a continuación del evento inicial
registrado, y por tanto se contabilizan muy pocos eventos verdaderos. Además, pueden
cometerse errores al interpretar los datos de contaje, ya que hay dos posibles tasas de
interacción verdaderas, n1 y n2, correspondientes a una tasa observada, m1.
3. Tipos de detectores
Los detectores pueden clasificarse atendiendo a distintas razones, de modo que un
mismo detector puede estar incluido dentro de más de una categoría. A continuación se
indica la clasificación de los detectores atendiendo a diferentes criterios:
• El principio físico o químico utilizado: ionización gaseosa, centelleo, semiconductor,
película radiográfica o radiocrómica, y termoluminiscencia (TLD).
• Procedimientos de medida:
• Activos: el sistema electrónico de lectura está activo durante la irradiación. Ejemplo:
detector Geiger-Müller (GM).
• Pasivos: el proceso de lectura del detector ocurre con posterioridad a la irradiación.
Ejemplo: TLD.
• Tecnología:
• Directos: la señal es la resultante de colectar los portadores de carga producidos por
la radiación ionizante. Ejemplo: cámara de ionización.
• Indirectos: se aprovecha la señal producida por otras transformaciones causadas por
la radiación ionizante en el medio, como por ejemplo la excitación de estados
ópticos, la modificación de niveles electrónicos de la red cristalina, etc. Ejemplo:
película radiográfica.
• Utilización: detectores para dosimetría del haz de radiación, monitores de radiación
ambiental, monitores de contaminación y dosímetros personales.

3.1. Detectores de ionización gaseosa


La ionización de un gas es el efecto físico en el cual se basan estos detectores. Cuando
una partícula, directamente o indirectamente ionizante, atraviesa un gas, crea a lo largo
de su camino moléculas excitadas e ionizadas. La ionización de una molécula neutra da
lugar a la creación de un ion positivo y un electrón libre, denominado par ion-electrón
(ion-e−). Con ello, el gas que al inicio se comportaba como un aislante eléctrico pasa a ser
parcialmente conductor, de manera que al aplicar una tensión de polarización a los
electrodos se genera un campo eléctrico en el interior del volumen del detector. Dicho
campo eléctrico, a su vez, da lugar a una fuerza electrostática que mueve a los iones
positivos hacia el electrodo negativo (cátodo), y a los electrones hacia el electrodo
positivo (ánodo), generando una corriente eléctrica cuya intensidad estará relacionada
con la intensidad de la radiación ionizante que la ha producido. El esquema general de
un detector de ionización gaseosa se muestra en la figura 4-4. El tiempo que tardan los
iones en llegar a su correspondiente electrodo es del orden de milisegundos, que es un
tiempo muy largo. Sin embargo, el tiempo de colección para los electrones es del orden
de microsegundos, es decir, unas mil veces menos, debido a su menor masa.
FIGURA 4-4 Ionización producida por la radiación ionizante al atravesar el gas que contiene el
detector. La aplicación de un campo eléctrico permite la colección de carga hacia sus respectivos
electrodos.

Para que se forme un par ion-e−, la partícula ionizante debe transferir una cantidad
mínima de energía, que en principio bastaría con que fuera igual a la energía necesaria
para arrancar a un electrón ligado de una de sus capas (10-20 eV). Sin embargo, la
partícula incidente, además de perder su energía creando pares ion-e−, también puede
perderla mediante procesos de excitación, es decir, un electrón de una molécula del gas
pasa a ocupar un estado ligado de mayor energía. Por tanto, la energía promedio, W,
necesaria para producir un par ion-e−, es ligeramente mayor que la energía de ionización.
En principio, W depende del tipo de gas y del tipo y la energía de la radiación; no
obstante, se ha observado experimentalmente que permanece constante para muchos
gases y diferentes tipos de radiación, tomando un valor W ≈ 30-35 eV. Si W es
aproximadamente constante para un tipo de radiación dada, la energía depositada será
proporcional al número de pares ion-e−formados, y puede calcularse dicha energía si se
conoce la cantidad de pares de iones.
En el proceso de difusión del ion y el e− hacia sus respectivos electrodos pueden
producirse varios fenómenos que hacen que la carga original generada por la radiación
ionizante no sea totalmente colectada:
• Colisiones con transferencia de carga: cuando un ion positivo choca con una molécula
neutra, se transfiere un electrón de dicha molécula al ion; por otro lado, los e−, al
colisionar con una molécula neutra, pueden acoplarse a ella, formando un ion
negativo. Como resultado de ambas colisiones desaparece el par ion-e− original y se
forman iones negativos. Por ejemplo, el oxígeno es un gas que capta electrones con
mucha facilidad, con lo cual los electrones que se difunden en aire se convierten
rápidamente en iones negativos. En contrapunto, el nitrógeno, el hidrógeno y los gases
nobles se caracterizan por un coeficiente de acoplamiento de electrones muy bajo, y
por tanto, en estos gases, los electrones continúan su camino como electrones libres.
• Recombinación: es una colisión entre un ion positivo y un e− libre, en la cual el e− es
capturado por el ion positivo volviendo de nuevo al estado de carga neutra.
Alternativamente, un ion positivo puede sufrir una colisión con un ion negativo, en la
cual el electrón extra se transfiere al ion positivo y ambos iones son neutralizados. En
los dos casos, la carga representada por el par ion-e− original se pierde y, por tanto, no
contribuye a la señal. La tasa de recombinación dependerá de la densidad de pares ion-
e− y del voltaje aplicado.

Zonas de funcionamiento de un detector de ionización gaseosa


El parámetro esencial para determinar el comportamiento de un detector de gas es la
diferencia de potencial (ddp) o tensión aplicada entre sus electrodos. De acuerdo con la
figura 4-5, se distinguen las siguientes zonas de funcionamiento.

FIGURA 4-5 Diferentes zonas de funcionamiento de un detector de ionización gaseosa en función


de la diferencia de potencial aplicada a sus electrodos.

Zona de recombinación
Si no se aplica ninguna tensión al detector, no se detectará ninguna corriente, ya que no
existe campo eléctrico, y los iones y los electrones desaparecerán por recombinación o
difusión en el volumen activo del detector. Al aplicar un potencial no muy elevado
(menos de unos 100 V) aparecerá un campo eléctrico, pero no lo bastante intenso como
para evitar la recombinación, con lo cual la carga colectada es menor que la representada
por los pares ion-e− originales.
Zona de saturación o zona de las cámaras de ionización
Para un voltaje aplicado lo suficientemente alto (100-400 V), el campo eléctrico será lo
bastante intenso como para poder despreciar la recombinación, y por tanto todas las
cargas creadas en el proceso de ionización alcanzarán los electrodos. En la figura 4-5 se
observa que un aumento de la tensión no supone un aumento de la corriente, ya que
todas las cargas han sido colectadas. Esta es la zona de trabajo de las cámaras de
ionización.

Zona de proporcionalidad estricta


Si se continúa aumentando la tensión, llega un momento en que se produce el fenómeno
conocido como multiplicación del gas: los electrones libres son acelerados por el campo
eléctrico aplicado, de modo que cuando sufren una colisión adquieren una energía
cinética importante. Si esta energía es mayor que la energía de ionización de la molécula
neutra del gas, es posible crear un par ion-e− adicional en cada colisión, denominada
ionización secundaria. El electrón liberado en la ionización secundaria, a su vez, será
acelerado por el campo eléctrico, con lo que sufrirá nuevas colisiones que provocarán
nuevas ionizaciones. De esta manera, el proceso de multiplicación del gas tiene lugar en
forma de cascada, en la que cada electrón libre creado en una colisión puede crear más
electrones libres en el mismo proceso. La avalancha formada en el proceso de
multiplicación de un electrón se muestra en la figura 4-6A. En esta región, la
multiplicación del gas es lineal, con lo que la carga colectada será proporcional al número
de iones originales creados por la radiación incidente. El factor de proporcionalidad se
denomina factor de multiplicación, M, que se define como el número de pares de iones
secundarios producidos por cada primario:

[9]
donde Q es la carga total, n0 son los pares ion-e− originales y M es el factor de
multiplicación. Para contadores proporcionales es del orden de 1-104.
FIGURA 4-6 A) Avalancha de ionizaciones secundarias disparadas por un solo electrón en la zona
de proporcionalidad estricta. B) Mecanismo por el cual se disparan avalanchas adicionales en una
descarga Geiger. Los fotones por interacción fotoeléctrica en otro punto del gas (1) o en la superficie
del cátodo (2) liberan un nuevo electrón que, en su migración hacia el ánodo, dispara una nueva
avalancha.

Zona de proporcionalidad limitada


Si se sigue aumentando la ddp se introducen efectos no lineales. Los más importantes
están relacionados con los iones positivos que también son creados en las ionizaciones
secundarias. Al aumentar la tensión aplicada, el factor de multiplicación se hace muy
grande (M ≈ 106), la cantidad de iones secundarios aumenta considerablemente y deja de
existir proporcionalidad entre la carga colectada y el número de iones primarios.

Zona Geiger-Müller
Si se continúa aumentado la tensión, el factor de multiplicación toma un valor muy
elevado (M ≈ 1010), de modo que se produce un verdadero alud electrónico. En este caso,
el valor de la carga colectada es constante e independiente del número de iones
primarios, de la partícula incidente y de la tensión aplicada. En esta zona operan los
detectores Geiger-Müller.

Zona de descarga continua


Para tensiones aplicadas muy elevadas, el detector se hace inestable y entra en un
régimen de descarga semiautónoma, haciéndose inestable porque los iones positivos,
fuertemente acelerados, arrancan electrones del cátodo y se origina una descarga en
cadena.

Cámaras de ionización
Una cámara de ionización (CI) es un detector de gas en el cual la tensión aplicada (V∼10-
100 V) se sitúa en la zona de saturación. En una cámara de ionización ideal, toda la carga
generada por ionización es registrada, sin que haya recombinación ni multiplicación. Las
cámaras de ionización suelen trabajar en modo corriente y son un detector activo.
La geometría de las CI suele ser plana o cilíndrica, y contienen en su interior aire a
presión de una atmósfera. La corriente de ionización generada por la interacción de la
radiación es muy pequeña para poder ser medida; por ejemplo, una partícula beta
produce unos 1.000 pares de iones, lo que da lugar a un pulso de salida de unos cuantos
milivoltios. Por este motivo, las CI suelen ir acompañadas de dispositivos de
amplificación.
Las cámaras de ionización se utilizan para:
• Detección de radiación X, radiación gamma y radiación alfa y beta. Puesto que la
radiación alfa es de muy corto alcance, es necesario que la fuente radiactiva se sitúe en
el interior de la cámara, sobre uno de sus electrodos (cámaras planas). Sin embargo, la
detección de partículas beta se consigue para fuentes externas a través de ventanas
suficientemente delgadas, debido a su mayor poder de penetración. La eficiencia de la
detección para fotones es muy baja, de alrededor de un 1%, mientras que la eficiencia
de detección para partículas α y β es del 100%. En general, ofrecen muy poca
resolución energética.
• Dosimetría. Las CI utilizadas para tal fin están construidas con paredes de un material
equivalente a aire, plástico o aluminio. Estas cámaras proporcionan medidas
relativamente exactas de exposición para rayos gamma cuya energía sea lo bastante alta
como para poder despreciar la atenuación de las paredes, pero lo suficientemente baja
como para conseguir el equilibrio electrónico. En el caso particular de que la CI sea
equivalente a aire, la tasa de exposición, X·, se obtiene simplemente dividiendo la
corriente de ionización saturada, I S , por la masa, M, contenida en el volumen activo del
detector:

[10]

donde M es la masa de aire que debe ser corregida por factores de presión y
temperatura si la medida no se realiza en las condiciones estándar en que se calibró la
cámara (P = 1,013 105 Pa y T = 273,15 K).
También pueden realizarse medidas de dosis absorbida, como se explicará en el
capítulo 10.

Contadores proporcionales
Un contador proporcional es un detector de gas en el cual la tensión aplicada se sitúa en
la zona proporcional. Habitualmente trabaja en modo pulso y es un detector activo.
Debido al fenómeno de multiplicación del gas, la carga se amplifica dentro del propio
detector generando pulsos del orden de 0,1 V, aunque todavía se requiere la amplificación
de la señal.
Los contadores proporcionales suelen ser cilíndricos (geometría coaxial), es decir, el
ánodo es un fino cable (0,02-0,1 mm de diámetro) que se sitúa a lo largo del eje de un
cilindro hueco que funciona como cátodo, y el gas que se encuentra en el volumen activo
del detector suele ser un gas noble.
Como ya se ha indicado, el fenómeno de multiplicación del gas se basa en las
ionizaciones secundarias producidas en las colisiones de los electrones con las moléculas
neutras del gas del detector. Pero además de las ionizaciones, también se producen
excitaciones de las moléculas que posteriormente decaerán al estado fundamental
mediante la emisión de fotones visibles o ultravioleta (UV). Estos fotones, a su vez,
pueden producir nuevas ionizaciones, lo que conduce a una pérdida de la
proporcionalidad o a la aparición de pulsos espurios, o ambas cosas. En la práctica, para
evitar estos fenómenos, lo que se hace es añadir al gas una pequeña cantidad de otro gas
poliatómico, como por ejemplo el metano, para que absorba dichos fotones. A este
componente se le denomina gas quench o extintor.
La proporcionalidad que existe entre la altura del pulso y la ionización inicial permite
utilizar al detector para distinguir entre partículas de diferentes energías y poder
ionizante, es decir, puede emplearse como espectrómetro. También puede utilizarse
como monitor de radiación.

Contadores Geiger-Müller
Los contadores Geiger-Müller (G-M) son contadores de gas en los que la tensión aplicada
se sitúa en la zona Geiger-Müller. Trabajan en modo pulso y son detectores activos.
A diferencia de los contadores proporcionales, en los que cada electrón del par ion-
electrón produce una avalancha que es independiente de la avalancha producida por otro
electrón asociado con el evento ionizante original, en un G-M cada avalancha puede, a su
vez, producir una segunda avalancha en un punto diferente dentro del tubo. Estas
segundas avalanchas son producidas por los fotones emitidos por las moléculas de gas
excitadas que adquirieron dicho estado como consecuencia de las colisiones con los
electrones primarios. Como se observa en la figura 4-6B, la avalancha Geiger crece de
forma que envuelve al ánodo, independientemente de la posición en la que tuvo lugar el
evento ionizante inicial.
Puesto que una descarga Geiger finaliza una vez que se desarrolla una determinada
carga total, con independencia del número de pares ion-e− creados por la radiación
ionizante incidente, todos los pulsos tienen la misma amplitud y, por tanto, no
proporcionan ninguna información sobre las propiedades de la radiación incidente. Por
este motivo, los contadores G-M se usan como monitores de radiación y no pueden
utilizarse para espectroscopia, ya que pierden toda la información de la cantidad de
energía depositada por la radiación ionizante.
Los pulsos típicos de un G-M representan una cantidad inusualmente grande de carga
colectada; se forman sobre unos 109-1010 pares de iones en la descarga que se traducen en
un pulso de salida de aproximadamente 1 V. Esta amplitud tan grande del pulso de salida
permite simplificar la electrónica asociada, de modo que puede eliminarse la etapa de
amplificación previa.
Los gases utilizados para un contador G-M son los mismos que para un contador
proporcional. Los más empleados son los gases nobles, como el helio o el argón. Al gas
noble se le añade otro gas, también denominado gas quench, para evitar la generación de
múltiples pulsos mediante el mecanismo de colisiones con transferencia de carga.
Cuando los iones de argón llegan al cátodo y se neutralizan, quedan en estado excitado y
liberan fotones UV que al propagarse producen fotoelectrones, los cuales generan nuevas
avalanchas que dan lugar a pulsos espurios. Sin embargo, si estos iones de argón
colisionan con las moléculas del gas quench, son neutralizados al transferir su carga
positiva a dicha molécula, que queda ionizada positivamente. Ahora es el ion positivo del
gas quench el que continúa su camino hacia el cátodo, de manera que, al ser neutralizado,
el exceso de energía da lugar a la disociación de la molécula compleja, en lugar de liberar
un electrón de la superficie del cátodo, y por consiguiente no se forman avalanchas
adicionales en el tubo. El gas quench utilizado suele ser moléculas orgánicas. Debido a
que estas se disocian para evitar que el contador entre en descarga continua, el gas va
desapareciendo gradualmente durante el tiempo de vida del tubo.
El principal inconveniente de un G-M es su largo tiempo muerto (50-300 µs), lo que
implica que este tipo de detectores sólo puedan utilizarse para tasas de contajes
relativamente bajas.
La eficiencia de un contador Geiger es sólo del orden del 1-2% para la radiación
gamma, mientras que para la radiación beta es del 100% debido al relativamente intenso
poder ionizante de dichas partículas. Los contadores Geiger se usan sobre todo para la
detección de radiación gamma o de partículas beta; para la detección de la primera están
provistos de paredes metálicas o de vidrio, debido al gran poder de penetración de esta
radiación.

3.2. Estructura de bandas en los sólidos


Hasta ahora se han descrito detectores en los cuales el medio físico en que se producen
los procesos de interacción de la radiación se encuentra en estado gaseoso. Sin embargo,
en los detectores que se van a detallar en los siguientes apartados, el medio empleado
para la detección se encuentra en estado sólido. Es necesario conocer la estructura o la
organización de los átomos en un sólido para poder entender el fenómeno físico que se
produce como consecuencia de la interacción.
Los átomos que componen un material sólido se distribuyen en una red cristalina
periódica, de manera que los distintos niveles de energía se establecen en bandas de
energías permitidas para los electrones, separadas por gaps o bandas de energía prohibidas.
La banda inferior se denomina banda de valencia, en la que todos los electrones se
encuentran ligados en un lugar específico de la red cristalina, mientras que en la banda
de energía superior, denominada banda de conducción, los electrones están libres y pueden
moverse por toda la red cristalina. Son estos electrones los que contribuyen a la
conductividad eléctrica del material. Las dos bandas se encuentran separadas por un gap,
cuyo tamaño determina si el material se clasifica como aislante, semiconductor o
conductor, como se observa en la figura 4-7. En ausencia de excitación térmica, tanto los
aislantes como los conductores tienen la banda de valencia completamente llena y la de
conducción completamente vacía. Cuando los electrones adquieren la energía suficiente
para pasar a la banda de conducción, en la banda de valencia quedan disponibles unos
estados de energía denominados huecos. Un hueco es la ausencia de un electrón, el cual
puede considerarse como una partícula de características similares a las de un electrón,
pero cargada positivamente.

FIGURA 4-7 A) Disposición de los átomos o moléculas de un sólido en una red periódica que da
lugar a una estructura cristalina cúbica. B) Según el tamaño del gap (separación entre la banda de
valencia y la banda de conducción), los sólidos pueden clasificarse en aislantes, semiconductores
y conductores.

El gap en los aislantes tiene un ancho de unos 5 eV o más, pero en los semiconductores
el gap es de 1-3 eV. El tamaño o ancho del gap también puede depender de la
temperatura.

3.3. Detectores de semiconductor


El principio de funcionamiento de los semiconductores puede asemejarse al de las CI.
Cuando la radiación ionizante incide sobre un semiconductor, da lugar a la producción
de pares electrón-hueco a lo largo del camino de la partícula. El par electrón-hueco creado
es análogo al par ion-electrón producido en los detectores de gas, de manera que al
aplicar un campo eléctrico se genera una señal eléctrica debida a la migración de los
electrones y los huecos hacia sus respectivos electrodos.
La energía necesaria para crear un par electrón-hueco se denomina energía de
ionización. Esta energía es mucho más pequeña en los semiconductores (3,76 eV en el Si
y 2,76 eV en el Ge) que en los detectores de gas, en los que son necesarios 30 eV para
crear un par ion-electrón. Es por este motivo, y por la mayor densidad que presentan, por
lo que el número de portadores de carga que se genera en un semiconductor es 10 veces
mayor que el que se genera en un detector de gas, para la misma energía depositada. Esto
permite que los detectores construidos con semiconductores tengan mejor resolución en
energía, y debido a su menor tamaño ofrecen mejor resolución espacial.
A diferencia de los sólidos utilizados para los detectores termoluminiscentes, interesa
que los semiconductores sean lo más puros posible, es decir, que estén libres de defectos
y trampas para evitar que atrapen a los portadores (electrones y huecos) y se produzca
una colección incompleta de carga. Ofrecen una respuesta directa, aunque necesitan
etapas de amplificación, y una respuesta temporal muy buena, es decir, son muy rápidos
(el tiempo de colección de carga es del orden de nanosegundos).
Los detectores de Si se utilizan para espectroscopia de partículas alfa y fragmentos de
fisión; en general, se usan para espectroscopia de partículas cargadas. Los detectores de
Ge se utilizan para medidas de radiación gamma.
Entre los inconvenientes que presentan los detectores de semiconductor, cabe
mencionar:
• Están limitados a pequeños tamaños.
• Se degradan debido a la radiación. El daño más común es que un átomo del
semiconductor se desplace de su posición en la red cristalina, creándose una vacante, y
por tanto dando lugar a una trampa. Este efecto es más acusado cuando el detector se
irradia con partículas cargadas pesadas que cuando se irradia con partículas beta o
rayos gamma.
• Son muy caros.
• Los detectores de semiconductor empleados para espectroscopia necesitan
refrigeración1.
• Los semiconductores empleados para dosimetría de un haz de radiación presentan una
sobrerrespuesta a bajas energías, y dependencia angular y con la temperatura.

3.4. Detectores de luminiscencia


La luminiscencia es la propiedad que presentan algunos materiales por la cual son
capaces de emitir luz al absorber energía. Existen distintos tipos de luminiscencia
dependiendo de cuál sea el tipo de excitación causante del fenómeno. Por ejemplo, la
luminiscencia estimulada ópticamente es un tipo de luminiscencia causada por luz; o la
termoluminiscencia, en la cual la absorción de calor por el material es la causa de la
emisión de luz posterior.
Este proceso tiene dos pasos: en el primero, la energía incidente hace que los
electrones de los átomos que componen la red cristalina del material absorbente se
exciten y salten de una banda a otra de mayor energía; en el segundo, los electrones
«caen» de nuevo a su estado original emitiendo un fotón de luz. Según el intervalo de
tiempo que transcurra entre los dos pasos se distingue entre:
• Fluorescencia: el intervalo de tiempo entre los dos pasos es corto (menor de 10−8 s); es
decir, la emisión de luz se produce inmediatamente después de que el material ha sido
excitado.
• Fosforescencia: el intervalo de tiempo que transcurre entre la absorción y la reemisión
de la energía es largo (muchas horas).
En ambos casos, la energía emitida en forma de luz es casi siempre de menor energía,
es decir, de una longitud de onda más larga que la de la luz excitante.
Basándonos en estas propiedades de los materiales, pueden construirse dos tipos de
detectores: detectores de centelleo, en los que interesa que el tiempo de desexcitación y de
emisión de luz sea corto, y detectores de termoluminiscencia.

Detectores de centelleo
La figura 4-8 muestra los componentes principales de un detector de centelleo: el cristal
centelleador, el tubo fotomultiplicador y la electrónica asociada.

FIGURA 4-8 Esquema de un detector de centelleo de NaI-Tl. Se muestran los elementos básicos
de un tubo fotomultiplicador.

Cristal centelleador
Se encarga de transformar la energía de la radiación ionizante incidente en fotones de luz
visible o UV. El material de centelleo ideal debería reunir las siguientes cualidades:
• Alta eficiencia de centelleo: la fracción de la energía de la radiación incidente que se
convierte en luz visible debe ser elevada, es decir, la situación ideal sería aquella en que
toda la energía de la partícula incidente se convirtiera en luz.
• La conversión debería ser lineal: el número de fotones obtenidos debería ser
proporcional, en el mayor rango posible, a la energía depositada por la partícula
incidente.
• El cristal debería ser transparente a la longitud de onda de su propia emisión para que
tenga lugar una buena colección de luz.
• El tiempo de decay (desexcitación) de la luminiscencia inducida debería ser corto para
que la señal de los pulsos pueda ser generada rápidamente.
• El material debe ser de buena calidad óptica, poseer un número atómico elevado para
favorecer la absorción de energía, y su espesor debe ser, en lo posible, igual al alcance
máximo, si se trata de partículas cargadas, o del mayor espesor posible para radiación
gamma.
• El índice de refracción debería ser próximo al del vidrio (n = 1,5) para que tenga lugar
un acoplamiento efectivo entre la luz de centelleo y el tubo fotomultiplicador.
Los materiales centelladores pueden ser orgánicos o inorgánicos. Los centelladores
inorgánicos más utilizados son los haluros alcalinos, de los cuales el más empleado en la
práctica es el yoduro de sodio impurificado con talio (NaI-Tl). El Tl es una impureza
incorporada al cristal de NaI para conseguir que la longitud de onda de los fotones
emitidos se encuentre en la zona espectral de máxima sensibilidad del fotomultiplicador.
A este tipo de impurezas se las denomina activadores. Los materiales inorgánicos
proporcionan una gran cantidad de fotones y son muy lineales2; sin embargo, su
respuesta temporal es muy lenta. Entre las propiedades más significativas del NaI-Tl
cabe destacar:
• Excelente eficiencia de detección (≅60%). Su respuesta, en un amplio rango de energías
de electrones y rayos gamma, es lineal.
• Puede fabricarse en una amplia gama de tamaños y formas.
• El relativamente alto número atómico del yodo (Z = 53) asegura que tengan lugar
procesos de absorción fotoeléctrica, lo que hace que presente una alta eficiencia de
detección intrínseca.
• Como inconveniente, es un material higroscópico, es decir, que absorbe agua cuando se
encuentra en contacto con la atmósfera, lo que hace que se deterioren su estructura y
transparencia. Para evitarlo, el cristal se encapsula dejando una ventana de vidrio
transparente que permite la salida de los fotones visibles generados.
Los centelladores orgánicos son en general más rápidos que los inorgánicos, pero
producen menos luz. Los materiales pueden ser plásticos o cristales, o estar en estado
líquido. Suelen utilizarse para espectrometría beta y detección de neutrones rápidos.

Tubo fotomultiplicador
El tubo fotomultiplicador (FM) se encarga de transformar la luz procedente del cristal de
centelleo en una señal eléctrica sin añadir una gran cantidad de ruido aleatorio a dicha
señal. El tubo FM es una ampolla cilíndrica de vidrio en la que se ha hecho un vacío
elevado, y está constituido por los siguientes componentes (v. fig. 4-8):
• Fotocátodo: es el encargado de convertir la luz (los fotones) incidente en electrones de
baja energía (proceso de fotoemisión). Este proceso puede considerarse que tiene lugar
en tres pasos:
• Se absorbe el fotón incidente, el cual transfiere su energía a un electrón del material
fotoemisivo del que está construido el fotocátodo.
• El electrón migra hacia la superficie.
• El electrón adquiere la energía suficiente para abandonar la superficie del fotocátodo.
• Multiplicador de electrones: consiste en una serie de electrodos, llamados dinodos,
polarizados positivamente respecto al fotocátodo con tensiones crecientes de unos 100
V. Los electrones procedentes del fotocátodo golpean al primer electrodo o dinodo,
donde cada uno de ellos produce por ionización secundaria varios electrones por cada
electrón inicial que impacta sobre dicha superficie. A continuación, este nuevo grupo
de electrones incidirá sobre el siguiente dinodo, que se encuentra polarizado a un
potencial positivo mayor que el anterior, dando lugar a una nueva multiplicación de los
mismos. Esta secuencia continúa hasta que se alcanza el último dinodo, donde ahora el
pulso de electrones es un millón de veces mayor que el original procedente del
fotocátodo. En este punto, los electrones son colectados en el ánodo, que se encuentra
al final del tubo, para formar el pulso electrónico.

Detectores termoluminiscentes
Los detectores termoluminiscentes (TLD) están basados en el fenómeno de la
termoluminiscencia, por el cual determinados materiales son capaces de emitir fotones
cuando son estimulados térmicamente, es decir, cuando son calentados.
Los materiales termoluminiscentes se caracterizan por tener una gran cantidad de
trampas (estados de energía que se encuentran en una región prohibida), a diferencia de
los materiales de centelleo, que se procura que estén libres de impurezas. Si las trampas
se introducen de manera artificial, se habla de cristales dopados o activados.
Cuando el material termoluminiscente es expuesto a radiaciones ionizantes, un
electrón puede adquirir la energía suficiente para pasar a otros estados de mayor energía,
dando lugar a la formación de un par electrón- hueco (fig. 4-9A). Los electrones y los
huecos producidos pueden recombinarse de inmediato con un portador de signo
opuesto, o quedar atrapados en las trampas a lo largo del cristal. Si el electrón queda
atrapado en una trampa, para poder ser liberado necesita algún mecanismo que le aporte
energía, que en el caso de los materiales termoluminiscentes se consigue por medio del
calentamiento del material. Cuando el electrón es liberado pasa a ocupar un estado de
menor energía, donde se recombina con un hueco y, debido a tal desexcitación, se emite
un fotón. De manera análoga, ocurre lo mismo con los huecos (figura 4-9B). El número
total de fotones es un indicador del número original de pares electrón-hueco creados por
la radiación, ya que idealmente la cantidad de luz emitida es proporcional al número de
electrones que quedaron atrapados. Por tanto, el número de fotones emitidos puede
emplearse para conocer la dosis absorbida recibida por el detector. Para ello se emplea la
curva de brillo o curva termoluminiscente (intensidad de la luz emitida en función de la
temperatura), de modo que el área bajo la curva está relacionada con la dosis absorbida a
través de una calibración apropiada. Estos detectores se utilizan ampliamente como
dosímetros personales (fig. 4-10).
FIGURA 4-9 A) Debido a la radiación ionizante, un electrón adquiere la energía suficiente para
pasar a un estado de mayor energía (indicado por las líneas de color naranja) y dar lugar a la
formación de un par electrón-hueco. De manera análoga ocurre con el hueco formado (líneas
azules). B) Emisión de un fotón termoluminiscente debido a la recombinación de un electrón con un
hueco situado en una trampa (izquierda) o a la transición de un electrón que se encontraba en una
trampa a un estado de menor energía (derecha), tras ser calentado el material.

FIGURA 4-10 Detector termoluminiscente de solapa utilizado para dosimetría personal. En la


imagen de la izquierda se muestra el contenido del dosímetro, donde puede apreciarse que el
detector son pequeños cuadrados de material termoluminiscente.

El sistema termoluminiscente
Para que un material termoluminiscente pueda ser utilizado como detector, necesita
unos dispositivos adicionales a partir de los cuales pueda obtenerse una lectura. Estos
dispositivos son un calentador y un tubo FM. La misión del calentador es liberar los
electrones y los huecos de las trampas, y la del tubo FM es la misma que en los detectores
de centelleo.

Materiales termoluminiscentes
A la hora de elegir un material termoluminiscente deben tenerse en cuenta dos aspectos:
• La profundidad de las trampas: si son poco profundas, el número de portadores
atrapados por unidad de exposición será muy alto. Sin embargo, tal material será muy
inestable, ya que incluso a temperatura ambiente las trampas podrían ser liberadas. En
este caso, se dice que el material muestra un gran fading o decaimiento. Un ejemplo de
este tipo de material es el CaSO4:Mn (el Mn es el activador).
• El número atómico del material: el FLi es el material más utilizado debido a su bajo
número atómico (Ze fe ctivo = 8,2), que es muy similar al del tejido, lo que hace que sea
muy apropiado para dosimetría personal. Por otro lado, cabe destacar que el FLi
presenta un fading despreciable, al tener las trampas más profundas que el CaSO4:Mn,
y que factores ambientales, como la luz o la temperatura, no provocan grandes
cambios en su respuesta.
Entre las propiedades comunes a todos los materiales TLD cabe destacar:
• Se ven influenciados por las condiciones ambientales: temperatura, humedad y nivel de
radiación de fondo.
• Son reutilizables y duraderos: una vez que los dosímetros han sido irradiados y se ha
obtenido la curva termoluminiscente, se les somete a un nuevo calentamiento a
temperaturas muy altas para devolverlos a su estado original.
• Amplia gama de formatos: pueden presentarse de forma sólida o en polvo, y en
tamaños muy variados.
• Son detectores de lectura indirecta.

Sistemas de luminiscencia estimulada ópticamente


Es un fenómeno similar al de la termoluminiscencia, pero la excitación para que se
liberen las trampas es luminosa y normalmente mediante láser. Estos sistemas
encuentran su aplicación en la radiografía digital computarizada (CR)3 y en radioterapia
para realizar dosimetría in vivo, o incluso como sistema de imagen portal para
comprobar el correcto posicionamiento del paciente, sustituyendo a las películas
radiográficas convencionales.
En general, para efectuar el proceso de lectura se envía luz láser a través de una fibra
óptica, de manera que la luz producida en la liberación de las trampas es captada por la
fibra óptica y reflejada en el separador de haces hacia el fotomultiplicador para su
conversión en una señal eléctrica. Esta señal será proporcional a la dosis recibida y a la
energía óptica suministrada en el proceso de lectura.
El material del que está compuesto el detector, así como la longitud de onda del láser
empleado como estímulo óptico, dependen de la aplicación que vaya a darse al detector.
Por ejemplo, los CR utilizados para dosimetría in vivo están compuestos de pequeños
cilindros alargados de 0,4 mm × 3 mm de alúmina dopada con carbón o Al2O3:C, y el
rango de luz del láser empleado es de 500-550 nm. Sin embargo, los CR utilizados en
radiografía digital utilizan compuestos como el BaFBr:Eu2+ depositado en capas de unos
200 µm, y la excitación se realiza con un diodo láser con una longitud de onda media de
650 nm.

3.5. Detectores de película


Película radiográfica
La película radiográfica está constituida por una lámina de plástico transparente,
habitualmente de poliéster, llamada base, sobre la que se deposita la emulsión sensible a
la radiación, la cual se protege de daños mecánicos mediante unas láminas conocidas
como superrecubrimiento. La emulsión puede estar dispuesta en una o en las dos caras de
la base, como aparece en la figura 4-11A.

FIGURA 4-11 a) Corte transversal de una película radiográfica. b) Curva sensitométrica o curva
H&D de una película radiográfica.

La emulsión es una mezcla de gelatina y sales de plata, habitualmente halogenuros de


plata como el bromuro o yoduro de plata (AgBr o AgI). La gelatina es un medio
transparente, para permitir la transmisión de la luz, y porosa para que los productos
químicos que intervienen en el proceso de revelado puedan llegar a las sales de plata, que
son el material sensible de la emulsión y con las que interaccionan los rayos X para
formar la imagen radiográfica. En las placas de rayos X con fines médicos, el 90-99% de
las sales son de bromuro de plata (AgBr) y el 1-10% son de yoduro de plata (AgI). Estos
cristales se caracterizan por tener un número atómico alto (ZI = 53, ZBr = 35, ZAg = 47), y
formas y tamaños diferentes que van desde centésimas a decenas de micras. El tamaño
de los cristales es directamente proporcional a la velocidad de la película (sensibilidad de
la película a los rayos X) e inversamente proporcional a su resolución y contraste
(diferencias entre niveles de grises). Por otro lado, a mayor concentración de cristales, mayor
velocidad. Para aumentar la sensibilidad de la emulsión se utilizan pantallas
intensificadoras que se colocan lo más próximas posible a esta, de manera que este
dispositivo transforma la energía del haz de rayos X en luz visible.
La exposición directa de la película a los rayos X o a la luz procedente de las pantallas
de refuerzo es lo que va a dar lugar a la formación de la imagen latente. Este es un proceso
microscópico durante el cual, al incidir varios fotones sobre un cristal, se produce la
sensibilidad de este, pero no da lugar a una imagen visible. Es decir, el aspecto de la
película es el mismo antes que después de la exposición a la radiación. A través del
proceso de revelado, la imagen latente se convierte en una imagen visible al transformar
los átomos de plata en plata metálica, que es de color negro y la causante de que se
produzcan áreas oscuras en las radiografías reveladas.

Dosimetría mediante película


La respuesta de la película radiográfica a diferentes exposiciones se manifiesta como
distintos grados de ennegrecimiento o transmisión de la luz a través de ella. El grado de
ennegrecimiento puede medirse de manera objetiva por su densidad óptica (DO), que se
define como:

[11]
donde I 0 es la intensidad de luz incidente sobre la placa e I es la intensidad
transmitida.
A partir del grado de ennegrecimiento o la DO se deduce la dosis total de radiación
recibida tras un calibrado previo de la película. En una película ideal existiría una
relación lineal entre la dosis absorbida y la DO; sin embargo, el comportamiento real está
determinado por la curva característica o sensitométrica de la película. Esta curva es la
representación gráfica de la DO frente al logaritmo de la exposición o la dosis absorbida.
También recibe el nombre de curva H&D en honor a Hurter y Driffield, que investigaron
dicha relación. En la curva sensitométrica pueden distinguirse cuatro tramos empezando
desde su origen, como se observa en la figura 4-11B:
• Velo: es la DO de las películas no expuestas a la radiación, pero sometidas al proceso de
revelado.
• Subexposición o talón.
• Gamma o zona de exposición normal: en la que existe una relación lineal entre la DO y
log (X o D). Es una zona útil para realizar la dosimetría.
• Sobreexposición u hombro.
La DO se mide con unos equipos denominados densitómetros, que pueden ser
manuales, automatizados o escáner.

Ventajas e inconvenientes de la película radiográfica


La película radiográfica puede utilizarse para una gran variedad de fines, como por
ejemplo para detectar la presencia o ausencia de radiación, para el control de calidad del
equipamiento, para medir la dosis absorbida en radioterapia o para realizar la dosimetría
personal de los trabajadores expuestos, en el campo de la protección radiológica. En
función de cuál sea su uso, pueden destacarse las siguientes ventajas e inconvenientes:
• Ventajas:
• Detector sólido y pasivo, es decir, no requiere sistema electrónico incorporado para
realizar la medida.
• Excelente resolución espacial en dos dimensiones. La posición de una partícula
incidente queda fijada con una imprecisión de 10-3 mm. En el caso de su uso para la
obtención de distribuciones de dosis permite discernir altos gradientes de dosis
absorbida.
• Simplicidad y bajo coste al proporcionar una señal directamente visible sin
necesidad de electrónica asociada.
• Testimonio permanente de la dosis recibida, y por tanto posibilidad de registro
permanente en un historial dosimétrico.
• Detector de partículas cargadas y fotones.
• Inconvenientes:
• Material inestable frente a las condiciones ambientales (temperatura, humedad,
radiación ambiental de fondo) que hacen que la película pueda sufrir una
sensibilización extra, conduciendo a un ennegrecimiento incontrolado durante el
revelado y, por tanto, a un error por exceso en las medidas.
• Aunque la forma de la curva sensitométrica no varía con las condiciones de revelado,
el valor de la DO para una dosis absorbida dada depende fuertemente de la
temperatura y del tiempo de revelado.
• Engorroso proceso de manipulación, revelado y calibrado.
• Elevado umbral de detección y saturación a altas dosis, lo que supone una mayor
imprecisión de la dosis medida si se necesita trabajar en dicho rango.
• Falta de linealidad en la respuesta.
• La lectura de la dosis es indirecta, ya que se requiere un proceso de revelado.
• No puede reutilizarse.
• Pronunciada dependencia de la energía.

Película radiocrómica
La película radiocrómica es un nuevo tipo de película empleada principalmente para
control de calidad en radioterapia (verificación de tratamientos de pacientes o control de
la unidad de tratamiento), sustituyendo a la película radiográfica debido a la
desaparición de estas y del sistema de revelado (conjunto de reveladora y líquidos).
La película más empleada es la GAFCHROMIC, que ofrece dos tipos: la EBT-2,
empleada en el ámbito de la dosimetría en radioterapia, y la RTQA, para control de
calidad del equipamiento. Aunque ambas son válidas para el mismo rango de dosis, sus
respectivas propiedades son diferentes debido a que no están fabricadas de la misma
manera.
La película EBT4 está constituida, al igual que la película radiográfica, por una sustrato
de poliéster transparente, recubierto uniformemente con una capa activa que contiene un
polímero en forma de agujas que en el proceso de fabricación tienden a alinearse en la
dirección en que se extiende dicha capa. Para proteger la capa activa de daños mecánicos
se añade otra lámina de poliéster, pero de menor espesor que la del sustrato, adherida a
la capa activa mediante una capa adhesiva que le proporciona una mayor resistencia a la
penetración del agua y mejora sus propiedades mecánicas al cortarla, produciendo
menos daños en los bordes. La figura 4-12A muestra una sección transversal. La película
es de color amarillo debido a que se incorpora un tinte de este color en la capa activa, con
el propósito de absorber la radiación UV, atenuando así su influencia sobre la capa
sensible en un factor 10, y mejorando la tolerancia de la película a la exposición a la luz
en general. El material sensible es un polímero sintético equivalente a tejido, que al ser
sometido a la radiación ionizante se polimeriza en una determinada dirección y adquiere
una coloración azul, ya que el polímero presenta un máximo de absorción para una
longitud de onda de 636 nm (rojo). Sin embargo, para el ojo humano la película expuesta
presenta un color verdoso debido a la presencia del colorante amarillo, como se observa
en la figura 4-12B.

FIGURA 4-12 A) Configuración de la película GAFCHROMIC® EBT2. b) 1: película radiocrómica no


expuesta a radiación; 2: película irradiada (color verde azulado) para realizar la verificación de un
tratamiento de cabeza y cuello. B) Curva de calibración para la cual los datos experimentales han
sido ajustados a un polinomio de grado 3, según la relación D = a VP3 + b VP2 + c VP + d, donde D
es la dosis absorbida y VP es el valor de píxel.

El polímero absorbe la luz y la transmisión de esta a través de la película, se puede


medir con un escáner de color de sobremesa que permita escanear la imagen en RGB
(Red Green Blue). Esto es necesario porque la mayor sensibilidad de la película a la
radiación se encuentra en canal rojo, y por tanto es la imagen deseable para trabajar. Si
bien esto es cierto para un rango de dosis de 0,02-10 Gy, para dosis mayores este canal se
satura, con lo cual, en caso de que sea necesario realizar medidas de dosis de hasta 30 Gy,
se emplea el canal verde. El canal azul proporciona información sobre la uniformidad
espacial de la película, y puede ser empleado para realizar correcciones que tengan en
cuenta las diferencias de espesor de la película empleada para dosimetría.
La curva característica o sensitométrica de una película radiocrómica es muy diferente
a la de una radiográfica. Si bien en estas hay un tramo en el que existe una relación lineal
entre el grado de ennegrecimiento y la dosis, en las películas radiocrómicas la relación
entre el grado de ennegrecimiento, medido como el valor de gris o valor de píxel, y la
dosis, no es lineal sino que se ajusta a una distribución gamma o polinómica, como se
indica en la figura 4-12C.
Las ventajas más importantes sobre las películas radiocrómicas son:
• No necesitan proceso de revelado y fijado, y por tanto se eliminan parámetros de difícil
control. No obstante, el proceso de calibración y lectura sigue siendo relativamente
complejo si se pretende obtener resultados cuantitativos fiables, aunque aumenta la
fiabilidad como dosímetro relativo.
• Son más fáciles de utilizar, ya que pueden manipularse a la luz ambiente al no ser, en
principio, sensibles a la luz.
• Presentan mejor respuesta con la energía.
Entre los inconvenientes que presentan cabe destacar:
• Su baja relación señal/ruido en comparación con la película radiográfica. Para
compensarla se emplean filtros que mejoran la relación señal-ruido, pero que degradan
la resolución espacial. También se realizan varias lecturas sucesivas de la imagen para
obtener una imagen promedio. La película se escanea unas tres veces, pero debido a la
luz UV a que se ve sometida en el proceso de lectura, se producen polimerizaciones
adicionales que dan lugar a desviaciones en el proceso de medida.
• Falta de uniformidad espacial. En el proceso de lectura de la película dentro del
escáner, ésta dispersa algo de la luz incidente que tiende a acumularse en la parte
central del escáner. El problema puede solventarse obteniendo un patrón de corrección
espacial del escáner para cada lote de películas, obtenido a partir del escaneo de una
película irradiada en un haz uniforme.

3.6. Detectores de neutrones


Debido a que los neutrones carecen de carga eléctrica, no ionizan directamente la
materia y tampoco son desviados por los campos eléctricos generados por los núcleos y
los electrones. Esto hace que puedan atravesar un gran espesor de materia sin
interaccionar con ella, y por tanto son indetectables para los detectores de tamaños
normales. La medida de neutrones se lleva a cabo mediante la detección de reacciones
nucleares que dan lugar a la producción de partículas cargadas, tales como protones o
partículas alfa. Por tanto, cualquier detector de neutrones se basa en un material en el
cual se produzcan las reacciones nucleares de interés junto con alguno de los tipos de
detectores que se han descrito previamente.

Detectores basados en las reacciones de activación neutrónica: 10B (n,


α) 7Li o 3He (n, p) 3H
Esta reacción se basa en la construcción de un detector activo de neutrones lentos
(energía < 0,1 MeV). El detector es un contador proporcional de trifluoruro de boro (BF3).
El BF3 sirve como blanco para la conversión de los neutrones en partículas cargadas, en
este caso partículas alfa, así como gas proporcional. Por tanto, al colisionar los neutrones
con los núcleos de boro se emitirán partículas alfa que, a su vez, producirán corrientes de
ionización en el gas. Si se desea ampliar el rango energético de uso del detector, es decir,
que permita detectar neutrones rápidos (energía > 0,1 MeV), este se rodea con un
moderador con alto contenido en H, como el polietileno o la parafina. Este tipo de
detectores se emplean como monitores de área, y de ahí que su geometría sea cilíndrica
para que la respuesta del detector sea igual en todas las direcciones (respuesta isótropa).
Se conocen con el nombre de detectores tipo Anderson-Braun (fig. 4-13A).

FIGURA 4-13 A) Detector de neutrones tipo Anderson-Braun (BF3 + moderador cilíndrico de 20 cm


de diámetro y 47 cm de largo). B) Detector de neutrones tipo Leake (3He + moderador esférico de
20,8 cm de diámetro). Detectores de neutrones pertenecientes al CIEMTAT (Centro de
Investigaciones Energéticas Medioambientales y Tecnológicas).

Puesto que la sección eficaz de la reacción 3He (n,p) es incluso mayor que la del boro,
da lugar a que el 3He sea una alternativa atractiva para la detección de neutrones lentos,
siendo además un gas noble aceptable como contador proporcional. Este tipo de
detectores se denominan tipo Leake y consisten en un moderador esférico de polietileno
con un detector de 3He localizado en su centro, que a su vez se encuentra rodeado por
una lámina de cadmio. El empleo de esta lámina de Cd permite obtener una buena
resolución energética con menor cantidad de moderador hidrogenado, reduciendo así
sus dimensiones y peso (6,6 kg frente a los 10 kg de un Anderson-Braun) (fig. 4-13B).
4. Detectores en el ámbito hospitalario
Hasta ahora se ha realizado una clasificación de los detectores basándose en su principio
físico de funcionamiento, y se ha citado, en algunos casos, su posible utilización. No
obstante, hay que tener en cuenta que el fin para el que se desee emplear el detector
impone las características que debe cumplir más estrictamente. Por este motivo, puede
ser más adecuado realizar una clasificación en función de su uso en el ámbito
hospitalario.

4.1. Sistemas de dosimetría en radioterapia


Se denominan sistemas de dosimetría en el haz de radiación aquellos sistemas en los que
el detector se encuentra en el interior de un haz de radiación bien definido y de gran tasa
de fluencia. Estos son los sistemas utilizados en radioterapia para medir la dosis
absorbida, y entre ellos cabe destacar:
• Cámaras de ionización cilíndricas y plano-paralelas empleadas en haces de fotones y
electrones, respectivamente, y cámaras de ionización tipo pozo empleadas en
braquiterapia para la medida de la tasa de kerma de referencia en aire, en el seno de
aire, o TKRA. En general, ofrecen una gran precisión y exactitud en la medida.
• Diodos (detectores construidos con materiales semiconductores) empleados para la
dosimetría in vivo y para medidas de caracterización del haz de radiación producido
por los aceleradores lineales.
• Película radiográfica y radiocrómica para medida de dosis y verificación de
tratamientos de pacientes.
• Dosímetros de termoluminiscencia (TLD) para dosimetría in vivo y dosimetría del haz
de radiación.
También es habitual emplear conjuntos de cámaras de ionización o diodos formando
una matriz de detectores, conocidos con el término inglés de arrays. Estas matrices se
emplean para el control de calidad de los aceleradores lineales, y algunas se plantean
como método alternativo a las películas para la verificación de tratamientos en pacientes.
Los rangos usuales de medida de estos sistemas van del orden de cGy a decenas de Gy.

4.2. Monitores de radiación ambiental


Son aquellos detectores empleados en la vigilancia radiológica de las áreas de trabajo,
para evaluar, por ejemplo, los blindajes estructurales de salas colindantes a otras donde
se trabaja con radiaciones ionizantes, o para estimar las dosis efectivas y las dosis
equivalentes en los órganos de los individuos que trabajan con ellas. Se emplean también
para medir los niveles de radiación alrededor de equipos de radioterapia y contenedores
de fuentes, o para verificar que la fuente radiactiva de tratamiento no permanece en el
interior del paciente al finalizar una sesión de tratamiento de braquiterapia. Deberían
proporcionar las medidas en unidades de la magnitud equivalente de dosis ambiental, H*
(d), o equivalente de dosis direccional, H‘(d,Ω). Sin embargo, todavía quedan muchos
equipos en los que el resultado de la medida se expresa en unidades de exposición
(Roentgen, R) o de kerma (Gy).
Los detectores para este fin, como los de la figura 4-14A y B, suelen ser cámaras de
ionización o contadores Geiger, y suelen ir provistos de ventanas o planchas deslizantes
para poder medir conjuntamente tanto radiación beta como gamma (ventana abierta), o
sólo radiación gamma (ventana cerrada). Además, estos monitores poseen un dispositivo
de alarma que produce una señal acústica o luminosa cuando el nivel de radiación excede
un valor prefijado. Los detectores de neutrones descritos en el apartado 3.6, «Detectores
de neutrones», también pueden incluirse en la categoría de monitores de radiación
ambiental.
FIGURA 4-14 En la parte superior se muestran monitores de radiación ambiental. A) Cámara de
ionización. B) Contador Geiger-Müller. En la parte inferior se muestran monitores de contaminación.
C) Contador de manos y pies ubicado en la salida de la gammateca de un servicio de medicina
nuclear para la detección de contaminación personal. D) Monitor de contaminación superficial
Berthold LB 124.

Para comprobar el correcto funcionamiento de estos instrumentos, suelen venir


provistos de una fuente de verificación beta o gamma, para la que el detector debe
ofrecer una lectura determinada si se sitúa la muestra en un punto señalizado del
detector.
Este tipo de detectores se encuentran en todas las áreas de trabajo de un hospital
donde se empleen radiaciones ionizantes, debido a cuestiones de protección radiológica
de los trabajadores y del público. Los valores de tasa de equivalente de dosis ambiental
medidos normalmente por los monitores están en el rango µSv/h-mSv/h.

4.3. Monitores de contaminación


Por contaminación radiactiva se entiende la presencia no deseada de sustancias
radiactivas en una superficie o medio cualquiera, o incluso en una persona. Cuando se
manejan fuentes radiactivas no encapsuladas es necesario disponer de instrumentos
adecuados para detectar y medir posibles contaminaciones.
Los monitores de radiación se emplean para la vigilancia de las superficies de trabajo,
para la clasificación de elementos posiblemente contaminados como residuos
radiactivos, y para la localización de fuentes. Su ámbito de uso son las instalaciones de
medicina nuclear, ya que es donde habitualmente se utilizan fuentes no encapsuladas.
Sin embargo, también son útiles en braquiterapia para localizar pequeñas fuentes
extraviadas o verificar la ausencia de restos de hilos de 192Ir.
Para la detección de contaminación suelen emplearse contadores proporcionales, G-M,
de centelleo y de semiconductor. Pueden ser fijos, como los que se encuentran en la
salida de las instalaciones radiactivas para verificar la ausencia de contaminación
personal, que disponen de sondas para pies y manos, así como de una sonda móvil para
verificar la ropa; o también pueden ser portátiles, para verificar las superficies de trabajo
(fig. 4-14C y D).
Estos detectores miden en cuentas por unidad de tiempo, actividad (Bq), o cuentas por
unidad de tiempo y superficie, actividad por superficie (Bq/cm2).

4.4. Dosímetros personales


Se emplan para la vigilancia individual de los trabajadores expuestos a radiaciones
ionizantes, y su finalidad es estimar las dosis efectivas y las equivalentes en órganos.
Los sistemas más utilizados son los dosímetros de termoluminiscencia (TLD) y los de
película radiográfica, aunque también se emplean detectores de semiconductor o de
ionización gaseosa para la construcción de dosímetros digitales de lectura directa, que
permiten en todo momento conocer la lectura instantánea de dosis y la tasa de dosis
profunda o superficial.
Estos dosímetros de solapa están diseñados para medir dosis equivalentes personales
profundas, Hp(10), y superficiales, Hp(0,07), así como para discriminar la energía de la
radiación incidente con la ayuda de los diferentes filtros. El rango, salvo exposiciones
accidentales, debe ser de µSv/h-mSv/h.
5. Resumen
• Los detectores son el medio por el cual la radiación ionizante puede ser percibida, y se
caracterizan en función de su modo de operación, eficiencia, resolución energética y
resolución temporal (tiempo muerto).
• La clasificación de los detectores en función del fenómeno físico que se produce como
consecuencia de la interacción de la radiación con el medio que lo compone:
• Ionización gaseosa (basado en la creación de pares ion-electrón):
– Cámaras de ionización (medida de dosis absorbida).
– Contadores proporcionales (monitores de radiación).
– Tubos Geiger-Müller (monitores de radiación).
• Centelleo: basados en el fenómeno de fluorescencia (emisión de luz visible o UV
como respuesta a la radiación). Se emplean como espectrómetros o monitores de
contaminación superficial
• Semiconductor: basados en la creación de un electrón-hueco. Pueden emplearse
como dosímetros y como espectrómetros.
• Películas radiográfica (basada en la transformación de plata a plata metálica tras el
proceso de revelado) y radiocrómica (basada en la polimerización del material
sensible): se emplean para dosimetría personal y del haz de radiación.
• Termoluminiscencia (TLD) y luminiscencia estimulada ópticamente: basados,
respectivamente, en la emisión de fotones cuando son estimulados por calor u
ópticamente (mediante láser). Los TLD se emplean para dosimetría personal.
• Detectores de neutrones: basados en reacciones de activación neutrónica. Se emplean
para dosimetría de área.
Bibliografía
Bushong SC. La película radiográfica. In: Bushong SC, ed. Manual de radiología para técnicos. Madrid: Elsevier España;
2010:180–192.
Fernández-Varea JM, Brosed A, González Lestón AM, Gracia Ezpeleta A, Medida de la radiación. Fundamentos de física
médica, Vol. 1 Madrid: ADI; 2011.
Khan FM. The physics of radiation therapy. 4th ed. Baltimore: Lippincott Williams & Wilkins; 2010.
Knoll GF. Radiation detection and measurement. 2nd ed. USA: John Wiley & Sons; 1989.
Rajan G, Izewska J. Radiation dosimeters. In: Podgorsak EB, ed. Radiation oncology physics: a handbook for teachers and
student. Vienna: IAEA; 2005:71–98.
Rajan G, Izewska J. Radiation monitoring instruments. In: Podgorsak EB, ed. Radiation oncology physics: a handbook for
teachers and student. Viena: IAEA; 2005:101–120.

1
Debido al pequeño gap del Ge (0,7 eV), los electrones que se encuentran en la banda de valencia podrían pasar a la
banda de conducción simplemente por agitación térmica a temperatura ambiente. Esto daría lugar a la aparición de
corrientes eléctricas que no se deben a la colección de los pares electrón-hueco generados por la radiación incidente, y que
por tanto contribuyen a aumentar el ruido. Para evitar estas corrientes, lo que se hace es refrigerar el detector mediante
nitrógeno líquido, que se encuentra a 77 K (−196,16 ˚C).
2
Se dice que la respuesta de un detector es lineal cuando es proporcional al estímulo o factor externo que la produce.
3
Consiste en la obtención de imágenes digitales mediante el empleo de placas de fósforo fotoestimulable a las que,
coloquialmente, se las ha denominado de CR, si bien el sistema de CR comprende no sólo las placas de fósforo sino
también el lector de estas.
4
Actualmente, el modelo que se encuentra disponible comercialmente son las películas EBT-3, cuya diferencia con las
EBT2 es que la capa activa (30 µm de espesor) se encuentra entre dos capas de poliéster del mismo espesor (125 µm)
eliminándose la capa adhesiva.
PA R T E 2
Equipamiento radioterápico
Capítulo 5: Equipos de simulación
Capítulo 6: Equipos de tratamiento en teleterapia
Capítulo 7: Equipos de control de posicionamiento guiado por imagen en radioterapia
Capítulo 8: Informática y comunicaciones
C AP Í T U L O 5
Equipos de simulación
Pablo Castro Tejero

Patricia Sánchez Rubio

Julia Garayoa Roca

ÍNDICE
1. Introducción 52
2. Objetivos 52
3. Simulador convencional 53
3.1. Principios de funcionamiento 53
4. Simulador TC 54
4.1. Principios de funcionamiento de un equipo de TC 54
4.2. Simulador virtual 59
5. Resumen 60
Bibliografía 60
1. Introducción
La simulación es una etapa de las más complejas dentro de la actividad radioterápica.
Puede decirse que el tipo de simulación empleado condiciona el resto del proceso
radioterápico, e incluso es difícil acotar los trabajos que comprende. Existen diversos
tipos de simulación en función del equipamiento y de las imágenes que se vaya a
adquirir. Las modalidades más extendidas en uso pueden reducirse a dos: simulación
convencional, que se basa en un examen clínico simple a partir de la adquisición de
imágenes planas de rayos X, y simulación TC, que implica el uso de un equipamiento más
complejo y se basa en imágenes tridimensionales generadas por un equipo de tomografía
computarizada (TC).
2. Objetivos
El concepto y objetivos de la simulación son tratados en los capítulos 9 y 12. De manera
breve puede decirse que, en un principio, la simulación se desarrolló, entre otras cosas,
con la finalidad de verificar el tratamiento, de manera que se asegurara que los haces
estaban correctamente elegidos y dirigidos al volumen blanco. En la actualidad, la
simulación tiene un papel más amplio en el proceso radioterápico, y sus objetivos son
tres:
1. La definición del volumen tumoral (posición, tamaño y situación respecto a otros
órganos).
2. La adquisición de los datos geométricos del paciente (imágenes) con las características
absorbentes precisas (densidades y composición de los tejidos) para poder realizar el
cálculo dosimétrico.
3. Proporcionar referencias informativas (tatuajes, marcas) de la posición del paciente
que permitan su colocación en el momento del tratamiento con perfecta reproducibilidad
respecto al momento en que fueron adquiridos en la simulación.
Durante esta fase del tratamiento radioterápico, también hay que definir la posición y
condiciones de estabilidad e inmovilización del paciente. Esto supone la definición de un
sistema de coordenadas que relacione la geometría del paciente a la del equipo de
imagen (simulador) y al sistema de coordenadas del equipo de tratamiento. Para ello se
utilizan dispositivos inmovilizadores apropiados que son fijados generalmente al tablero
de la mesa del equipo simulador y al de la mesa del equipo de tratamiento. Este será el
tema de estudio del capítulo 13.
La definición del volumen de tratamiento (tamaño, forma y ubicación anatómica)
requiere ser realizada con extrema precisión. Para ello puede requerirse la realización de
estudios adicionales de imagen que proporcionen mayores datos al respecto. Estos
estudios adicionales de imagen son estudios de resonancia magnética, tomografía por
emisión de positrones o angiografías. Estos equipos raramente se encuentran en el
mismo departamento de radioterapia y para solicitarlos se debe de recurrir a los servicios
proveedores de estos estudios (radiología y medicina nuclear).
Dada la necesidad de que estos estudios cumplan determinados requisitos para poder
ser utilizados en radioterapia, estos equipos y estudios deben estar supervisados por el
Servicio de Radiofísica y Protección Radiológica. El papel de estas modalidades de
imagen se estudia en el capítulo 14.
Los equipos de simulación más utilizados son: los simuladores convencionales y los
simuladores TC. Ambos sistemas están basados en un equipo de RX, específicamente
diseñado para uno u otro uso y que básicamente está constituido por un generador y un
tubo de RX:
• Generador de alto voltaje: suministra la potencia al tubo de rayos X.
• Tubo de rayos X: consiste en un tubo en el que se ha hecho el vacío, que alberga dos
electrodos (ánodo y cátodo) que son acelerados por un alto voltaje. El impacto de los
electrones sobre el ánodo, por efecto del fenómeno de frenado (Bremsstrahlung),
genera rayos X (v. caps. 2 y 7). La radiación X emitida tiene carácter pulsado, es decir, el
haz se enciende y apaga a intervalos fijos de unos pocos milisegundos. Para disipar al
calor generado por el impacto de los electrones sobre el ánodo, el tubo posee un
complejo sistema de refrigeración. El kilovoltaje empleado se encuentra en el rango de
50-140 kV pico.
3. Simulador convencional
3.1. Principios de funcionamiento
Estos tipos de simuladores están en franco desuso, al estar siendo sustituidos por los
simuladores TC que proporcionan una mayor información, aparte de que generalmente
no pueden simular los colimadores multiláminas de los aceleradores modernos.
El simulador convencional consta de un equipo de RX de calidad diagnóstica, con una
estructura que permite realizar idénticos movimientos y seleccionar tamaños de campo
iguales a que los que puede hacer o conseguir cualquier máquina de teleterapia de
megavoltaje isocéntrica, sea esta una unidad de 60Co o un acelerador lineal de electrones.
En un simulador convencional se puede trabajar de dos formas:
• Modo radiográfico: se obtiene una imagen estática producida por disparos de RX del
orden de milisegundos, que se recoge en una placa radiográfica. Constituye la
proyección de una región anatómica, que impresa en una placa radiográfica, permite
estudiar y delinear el campo de tratamiento.
• Modo fluoroscópico: se explora la anatomía del paciente mediante RX, estudiando la
zona de tratamiento más adecuada y la forma de abordarlo. El disparo de RX se
produce de manera continuada durante varios segundos mientras se mueve el tubo de
RX, recorriendo el paciente y permitiendo observar las imágenes mediante un tubo
intensificador y un monitor de TV.
En los equipos más modernos, tanto la placa como el intensificador del modo
fluoroscópico son sustituidos por un detector de silicio amorfo (aSi) que permite trabajar
en ambos modos.

Componentes de un simulador convencional


El simulador convencional (fig. 5-1) adicionalmente al equipo de RX convencional, debe
contar con:
• Brazo o gantry: es una estructura que puede girar alrededor del paciente. En su
extremo se sitúa el cabezal que contiene el tubo emisor de rayos X y el sistema de
colimación.
• Colimador: está incluido en el cabezal. Esta en un bloque sujeto al gantry que puede
trasladarse longitudinalmente (dirección cabeza-pies), permitiendo explorar al
paciente en esta dirección. Este bloque también puede trasladarse en sentido vertical
(arriba-abajo), alejándose/acercándose al isocentro, de forma que puede reproducir el
radio de giro de la fuente de radiación de cualquier máquina de tratamiento.
Adicionalmente el bloque puede rotar, permitiendo de esta manera que rote el
colimador y por tanto los campos simuladores de los haces.
Existen dos sistemas de colimación, uno que delimita la amplitud del paciente que se
quiere abarcar y visualizar con los RX, y otro virtual, formado por unas láminas o hilos
metálicos radio-opacos, cuya función es la de simular lo que pretendemos sea el haz de
tratamiento, lo cual es mostrado por la superposición de los hilos metálicos sobre la
imagen amplia abarcada por el colimador real de los RX (fig. 5-2). Estos colimadores
solo permiten configurar campos cuadrados o rectangulares.
• Telémetro: su función es proyectar una escala métrica que puede visualizarse sobre la
piel del paciente. Proporciona la distancia entre la fuente o foco de rayos X y la
superficie del paciente, que debe ser la misma que la de la máquina de tratamiento que
se vaya a utilizar.
• Soporte para bandejas: permite colocar bandejas de material plástico transparente,
donde se pueden colocar los moldes de protección del tejido sano que configura el haz
de radiación a la forma deseada para el tratamiento, tal como se tiene que hacer en
máquinas de tratamiento que no dispongan de colimadores multiláminas.
• Mesa de simulación: es el lugar sobre el que se coloca el paciente. Debe tener las
mismas características que la de tratamiento: plana y de material radiotransparente.
Permite realizar desplazamientos en las tres direcciones espaciales, así como giros
sobre el isocentro.
• Láseres de centrado: en número de tres. Los láseres se colocan perpendiculares entre si,
de tal forma que las luces proyectadas configuran un sistema ortogonal de
coordenadas, cuyo origen se hace coincidir con el isocentro mecánico de la máquina o
punto del espacio, sobre el que giran el brazo, el colimador y la mesa. Sirven como
ayuda para posicionar y alinear correctamente al paciente.
• Monitor de tratamiento: permite visualizar los parámetros de la simulación de cada
componente: giro de brazo y del colimador, tamaño de campo y posición de la mesa.
• Telemando: mando de control de la máquina a distancia por cable que permite
manipular todos los movimientos motorizados del simulador, tanto del gantry, como
del colimador y de la mesa de simulación.
• Intensificador de imagen: detector empleado en la técnica fluoroscópica. Puede
desplazarse longitudinalmente, alejándose o acercándose al isocentro para obtener
mayor o menor campo de visión, para variar la amplificación de la imagen. También
puede moverse lateralmente para realizar la exploración anátomo-radiológica del
paciente. Está acoplado mediante un sistema óptico a una cámara que, a su vez, está
conectada a un monitor de TV.
• Bandeja portachasis: en ella se introduce el chasis que contiene la película radiográfica
par el funcionamiento en modo radiográfico. Dispone de soporte para una rejilla
antidifusora, que elimina la radiación dispersa antes de que llegue a la placa
radiográfica.
FIGURA 5-1 Componentes principales de un simulador convencional.
FIGURA 5-2 Placa radiográfica de simulación en la que puede observarse la proyección del hilo
metálico que simula la colimación del campo de tratamiento. El colimador primario de simulación
delimita la zona del campo de rayos X.
4. Simulador TC
Este tipo de simuladores son los más utilizados.
Un simulador TC está formado fundamentalmente por:
• Equipo de TC: permite la adquisición de datos tridimensionales (3D) del paciente.
• Programa informático: proporciona una representación virtual en 3D de las
capacidades geométricas de una máquina de tratamiento, razón por la
que comúnmente se denomina a este tipo de simulador como simulador virtual.

4.1. Principios de funcionamiento de un equipo de TC


El concepto básico de funcionamiento de la tomografía computarizada por RX, es que la
estructura interna de un objeto puede ser reconstruida a partir de múltiples proyecciones
de dicho objeto. En el caso de un escáner TC, un estrecho haz de rayos X atraviesa al
paciente en una dirección determinada, siendo atenuado en mayor o menor medida en
función de la composición (densidad y número atómico) de las estructuras que se
encuentra en dicha dirección. En el lado opuesto al tubo generador del haz de rayos X, un
detector de radiación recoge la señal transmitida a través del paciente. Ambos
dispositivos, tubo de rayos X y detector, giran sincronizadamente alrededor del paciente1
de manera que es posible realizar medidas de transmisión desde diferentes
orientaciones, produciendo señales que dependerán de los tejidos atravesados en cada
proyección. Tras una vuelta completa sobre el paciente (360°), las señales son
almacenadas por potentes computadoras que, mediante complejos algoritmos
matemáticos, procesan la información y la reconstruyen en forma de una imagen que
representa un corte transversal del paciente.
La obtención de un conjunto de imágenes transversales que incluya la región que se
quiere explorar puede conseguirse mediante el desplazamiento de la mesa donde reposa
el paciente. Actualmente existen dos tecnologías y posibilidades de trabajo:
• Modo secuencial: la adquisición de la información de una vuelta o información de un
corte se realiza con la mesa estática. Tras completar la vuelta, el tubo deja de irradiar y
la mesa se traslada unos milímetros, donde vuelve a repetirse el proceso de
adquisición. Así se repite el proceso hasta haber abarcado la zona anatómica deseada
(fig. 5-3).
• Modo helicoidal: la rotación de tubo y detector alrededor del paciente se hace
simultáneamente con el desplazamiento continuo de la mesa, en todo momento con
emisión de radiación (fig. 5-4). El tiempo de exploración se reduce significativamente2.
Tanto en un modo como en otro, el software de reconstrucción permite visualizar las
imágenes en cualquier orientación: axial, sagital o coronal.
FIGURA 5-3 Geometría de adquisición para el modo secuencial.
FIGURA 5-4 Geometría de adquisición para el modo helicoidal.

El haz empleado en un equipo de TC tiene forma de abanico en el plano axial de la


imagen (fig. 5-5A) y estrecho en dirección cráneo-caudal (fig. 5-5B).
FIGURA 5-5 Geometría del haz en un equipo de TC. A) Haz en abanico desde una vista frontal
(plano de imagen). B) Haz estrecho desde una vista lateral (dirección cráneo-caudal).

Componentes de un equipo de TC
Un equipo de TC (fig. 5-6) está formado fundamentalmente por:
• Consola de control: en general dispone de dos funciones. Una que permite el manejo
del equipo (selección de parámetros técnicos) y otra que permite el posprocesado, la
visualización y la manipulación de las imágenes.
• Ordenador de reconstrucción: tiene una gran capacidad computacional y lleva a cabo la
reconstrucción de las imágenes.
• Mesa de simulación: consiste en un tablero plano, donde se coloca al paciente. Está
hecha de un material de baja absorción (usualmente fibra de carbono) para no
interferir en la transmisión de los rayos X y evitar artefactos en las imágenes. Puede
realizar desplazamientos verticales y longitudinales.
• Gantry o estativo: soporte de forma circular (de donut) con una apertura en el centro,
de un tamaño de alrededor de 80 cm o superior que permite el paso del paciente y de
los dispositivos de posicionamiento que suelen ser de mayor tamaño que el propio
diámetro del paciente. En su interior se encuentran diversos componentes, unos que
permanecen fijos y otros que rotan alrededor del punto central de la apertura. Los
componentes más importantes dentro del gantry (fig. 5-7), además del tubo de RX
previamente descrito, son:
• Filtro de forma y filtro plano: son placas de material absorbente, que colocadas a la
salida del haz de RX, sirven para eliminar fotones de baja energía y contribuir a
hacer monoenergético el espectro. Además, al eliminar la componente de baja
energía, el paciente recibirá menos dosis y el ruido generado sobre el detector será
menor. El filtro plano suele ser de cobre o aluminio. El filtro de forma tiene un
objetivo adicional, que es el de adaptar la intensidad del haz de rayos X a los
espesores atravesados sobre el paciente, que generalmente pueden aproximarse a
una sección ovalada.
• Colimador: sirve para asegurar una buena calidad de imagen y para reducir la dosis
al paciente. Existen dos tipos de colimación:
– Prepaciente: colimador situado entre la fuente de rayos X y el paciente. Está
formado por aperturas seleccionables de diferente tamaño que restringen el flujo
de rayos X en la dirección cráneo-caudal y, por tanto, determinan la extensión de
paciente irradiado.
– Pospaciente: colimador situado entre el paciente y el detector. Al igual que la
colimación prepaciente, restringe el haz de rayos X en dirección cráneo-caudal,
pero con el objetivo de aprovechar sólo la parte útil del haz que llega a los
detectores. Determina el espesor de corte de la imagen.
• Detectores: los equipos más modernos cuentan con decenas de miles de detectores
de estado sólido ordenados en matrices. Estas matrices están formadas por varias
filas de detectores, de ahí que este tipo de equipos reciba el nombre de TC
multicorte (fig. 5-8), a diferencia de los primeros equipos que poseían sólo una fila,
denominados TC monocorte. Los detectores están formados por un material
semiconductor que convierte la radiación X incidente en luz visible, y están
acoplados a un cristal de centelleo, constituido por fotodiodos, que se encargan de
convertir, a su vez, la luz emitida por el semiconductor en señal eléctrica. Este diseño
hace que la eficiencia de detección (la cantidad de radiación incidente que se
convierte en señal eléctrica) sea muy elevada. Habitualmente los detectores están
separados entre sí por pequeños tabiques (septos) de materiales muy densos que
absorben gran parte de la radiación dispersa y, así, mejoran el contraste en la
imagen.
• Anillo deslizante: es un dispositivo electromecánico formado por un anillo rotatorio
con escobillas y un anillo liso estacionario, ambos con superficies con buenas
propiedades para la conducción de electricidad. Al girar el anillo rotatorio, las
escobillas barren la superficie del anillo fijo y transmiten la señal. Con esta
tecnología no son necesarios cables eléctricos y es posible la rotación del cabezal sin
interrupción. En un equipo de TC existen varios anillos con diferentes propósitos:
recibir las órdenes de la consola de control, transmitir la señal recogida por los
detectores y suministrar la corriente para el funcionamiento de cada componente.
• Sistema de láseres: en general existen dos conjuntos de láseres, uno de ellos dentro
de la apertura del gantry y que identifica el plano real de la imagen, y otro en la parte
externa del gantry a una distancia conocida del primer conjunto, y que está formado
por varios láseres que intersecan en un punto del eje de rotación de la TC.
FIGURA 5-6 Componentes principales de un equipo de TC.

FIGURA 5-7 Diagrama esquemático del gantry de un equipo de TC con sus componentes
principales. A) Vista frontal. B) Vista lateral.
FIGURA 5-8 Esquema de la matriz de detectores, focalizada con la fuente de rayos X, de un
equipo de TC multicorte de cuatro cortes.

Reconstrucción de la imagen
Las proyecciones tomadas por los detectores a lo largo de los sucesivos giros, se
almacenan en el ordenador de reconstrucción. Estas proyecciones son procesadas por un
algoritmo matemático de reconstrucción de imagen.
La imagen reconstruida de cada corte está formada por un conjunto de pequeñas
celdas, denominadas píxeles (del inglés picture element), dispuestas en filas y columnas
formando una matriz cuadrada (fig. 5-9). El tamaño típico de la matriz TC es de 512 × 512,
esto es, 512 píxeles de ancho y 512 píxeles de largo (lo que totaliza 262.144 píxeles por
imagen). El diámetro de reconstrucción o campo de visión (FOV, del inglés Field of View)
es seleccionado por el usuario y define la longitud del lado del cuadrado que ocupará la
matriz de píxeles. La relación entre los mencionados parámetros es:
FIGURA 5-9 Imagen de TC formada por una matriz cuadrada de pequeñas celdas, denominadas
píxeles, dispuestas en filas y columnas. Si se considera el espesor de corte, las celdas pasan a ser
volúmenes denominados vóxeles.

Si seleccionamos un FOV pequeño, por ejemplo de 200 mm, sobre una matriz típica de
512 píxeles, obtendremos un tamaño de píxel de 0,391 mm. Con un FOV mayor, por
ejemplo de 450 mm, resulta un tamaño de píxel de 0,879 mm. Así, con FOV menores
tendremos tamaños de píxel menores, y por tanto mejor resolución espacial o grado de
detalle, lo que permitirá visualizar mejor estructuras pequeñas. Los FOV pequeños se
emplean típicamente en estudios de la cabeza en los que las estructuras que forman el
sistema óptico son de tamaño muy reducido, mientras que los FOV más grandes se
emplean en regiones como la pelvis o el abdomen.
Si consideramos el espesor de corte de la imagen, las celdas pasan a ser bloques
cúbicos denominados vóxeles (del inglés volume element) (v. fig. 5-9). Un vóxel, por tanto,
define un volumen determinado por el tamaño de píxel y el espesor de la imagen:
tamaño vóxel (mm3) = tamaño píxel (mm2) × espesor de corte (mm).
Cada vóxel lleva asociado una información asignada por el algoritmo de
reconstrucción. Esta información numérica se denomina número TC o unidad
Hounsfield (UH), que está directamente relacionado con el grado de atenuación que
sufren los rayos X al atravesar el tejido contenido en el vóxel. Dicha magnitud es el
denominado coeficiente de atenuación lineal, µ, y su relación con la unidad Hounsfield
es:

Esta expresión define una escala donde el valor de referencia es el agua, que se
corresponde con un valor de UH de 0. Cada píxel va a estar representado en la imagen
por un nivel de gris, relacionado con un valor de UH. Un valor de máxima atenuación, por
ejemplo un material muy denso como el hueso compacto o un metal, se corresponderá
con un valor de aproximadamente +1.000 y se verá en la imagen de color blanco. Un valor
de mínima atenuación, correspondiente a un material muy poco denso como el aire,
tendrá un valor de UH de aproximadamente −1.000 y será visualizado en la imagen de
color negro.
Para que el sistema de imagen de TC trabaje con precisión, es necesario que la
respuesta de los detectores esté siempre calibrada de manera que un valor de UH cercano
a 0 se corresponda con la densidad del agua, y los números TC de los diferentes tejidos
permanezcan constantes. Esto es más importante si cabe en un equipo de TC dedicado a
radioterapia, donde el conocimiento de la densidad de los tejidos repercute directamente
en el cálculo de la dosis3.

Adaptación de un equipo de TC a radioterapia


Cuando no existe un equipo de TC especialmente dedicado a simulación en radioterapia,
es necesario adaptar uno convencional de diagnóstico a este propósito. La adaptación
requiere que se modifiquen una serie de características en estos equipos:
• Mesa o tablero plano, para intentar que la posición del paciente sea idéntica a la que
tenga en el momento del tratamiento, ya que los tableros de las mesas de tratamiento
son planos.
• Sistema de láseres externo que permitan posicionar, alinear y marcar al paciente. Los
láseres internos pueden utilizarse para este propósito, pero por la dificultad de su uso,
debido al reducido espacio existente en la apertura del gantry cuando el paciente está
dentro, es deseable contar con este conjunto de láseres adicional. Suelen ir enclavados
en las paredes de la sala o en estativos fijados al suelo. En la mayoría de los casos, el
láser sagital es móvil y permite la marcación del paciente desplazado de su línea media
(útil para la adquisición de lesiones periféricas, localizadas, por ejemplo en brazos o
piernas).

4.2. Simulador virtual


Se trata de un programa informático que ofrece una representación virtual 3D de la
máquina de tratamiento con capacidad para reproducir todos sus movimientos, y puede
trabajar simultáneamente con las imágenes TC del paciente. Proporciona una serie de
potentes herramientas de visualización y manejo de imágenes, así como de utilidades
para llevar a cabo el diseño del tratamiento. Entre ellas destacan (fig. 5-10):
• Vista del ojo del haz (BEV, del inglés Beam’s Eye View): representación gráfica en 3D de
los volúmenes tal como serían vistos por un observador colocado en la fuente de
irradiación mirando hacia el isocentro. Viene a emular la fluoroscopia del simulador
convencional.
• Conformación del haz: permite definir la protección de los órganos de riesgo o tejido
sano, mediante su adaptación a la forma del volumen de tratamiento.
• Visualización 3D: muestra una perspectiva en 3D de los haces, los volúmenes blanco,
los órganos de riesgo y la superficie del paciente, desde un punto arbitrario.
• Radiografía reconstruida digitalmente (DRR, del inglés Digital Reconstructed
Radiograph): a partir de los datos TC puede reconstruirse una proyección radiográfica
que iría desde el foco hasta un plano virtual donde se situaría la película. Sus
utilidades son las mismas que las de la placa radiográfica en el simulador
convencional.
FIGURA 5-10 Herramientas de visualización del simulador virtual para un tratamiento craneal. A)
Vista del ojo del haz. B) Vista del ojo del haz incluyendo la conformación o protección al tejido sano.
C) Visualización 3D de la geometría de tratamiento. D) Radiografía reconstruida digitalmente.

Además, el simulador virtual permite visualizar el isocentro y sus coordenadas, así


como las marcas radioopacas de referencia en el TC (fig. 5-11), lo que facilita el
desplazamiento a realizar desde dicha referencia al isocentro de tratamiento.
FIGURA 5-11 Corte transversal de un estudio TC de simulación en el cual pueden observarse el
isocentro del campo, en amarillo, y el punto donde se cortan las marcas radioopacas (en este caso,
los tres perdigones), en verde.
5. Resumen
El simulador es un componente muy importante dentro del equipamiento empleado en
radioterapia. En concreto, la etapa de la simulación tendrá influencia sobre la práctica
totalidad del proceso radioterápico. Dentro de los equipos existentes para llevar a cabo la
simulación pueden distinguirse dos grandes grupos:
• Simulador convencional: máquina que imita los movimientos de la unidad de
tratamiento. Puede adquirir imágenes anatómicas de RX del paciente en un instante
dado y en tiempo real. Estas proyecciones bidimensionales permiten localizar la lesión
y los órganos de riesgo, y a continuación, decidir el mejor diseño para el tratamiento.
• Simulador TC: formado por un equipo de TC adaptado (mesa plana, diámetro de gantry
ampliado y sistema de láseres externo) capaz de reconstruir imágenes volumétricas del
interior del paciente, y por un simulador virtual que es un programa informático para
reproducir los movimientos de la máquina de tratamiento y a la vez trabajar con las
imágenes TC del paciente. Estas imágenes 3D servirán para definir con gran precisión
la lesión y los órganos de riesgo, y llevar a cabo un diseño óptimo del tratamiento.
Hoy por hoy, las imágenes del simulador TC presentan grandes ventajas en
comparación con las proporcionadas por el simulador convencional, razón por la que este
está siendo dejado fuera de uso.
Bibliografía
Baker GR. Localization: conventional and CT simulation. Br J Radiol. 2006;79:S36–49.
Bushberg JT, Seibert JA, Leidholdt EM, Boone JM. The essential physics of medical imaging. 2nd ed. Philadelphia:
Lippincott Williams & Wilkins; 2002.
Bushong SC. Manual de radiología para técnicos. 9ª ed. Barcelona: Elsevier Mosby; 2010.
Hsieh J. Computed tomography. Principles, design, artifacts, and recent advances. 2nd ed Bellingham: Spie and John Wiley &
Sons; 2009.
Khan FM. The physics of radiation therapy. 4th ed. Baltimore: Lippincott Williams & Wilkins; 2010.
Podgorsak EB, ed. Radiation oncology physics: a handbook for teachers and students. Vienna: IAEA; 2005.

1
Se hace mención a lo largo del capítulo al denominado TC de tercera generación, por ser el más ampliamente utilizado.
Existen otras generaciones que, bien por quedar su diseño obsoleto (1ª y 2ª generaciones), bien por tener un diseño muy
costoso (4ª generación), han tenido mucho menor impacto comercial y clínico.
2
Actualmente, el tiempo mínimo de rotación se sitúa en torno a 0,5 s e incluso menos, de modo que la adquisición
completa se realiza en cuestión de pocos segundos.
3
La densidad del material es la magnitud que utiliza el sistema de planificación para determinar la interacción de la
radiación con la materia. La relación entre la UH y la densidad de los tejidos se establece a partir de medidas realizadas
con un maniquí en cuyo interior hay insertos de diferentes materiales de densidad conocida. A partir de la imagen TC del
maniquí es posible correlacionar el valor de UH, medido en la imagen, con la densidad conocida de cada material.
C AP Í T U L O 6
Equipos de tratamiento en teleterapia
Jaime Martínez Ortega

Ruth Rodríguez Romero

Pablo Castro Tejero

ÍNDICE
1. Introducción 61
2. Teleterapia 61
2.1. Objetivos de las máquinas de tratamiento en
teleterapia 61
2.2. Evolución histórica 61
2.3. Equipos de terapia superficial 62
2.4. Unidades de cobalto-60 66
2.5. Aceleradores lineales de electrones 70
2.6. Aceleradores circulares de partículas 79
3. Resumen 80
Bibliografía 80
1. Introducción
En este capítulo se describen los equipos de tratamiento más utilizados en radioterapia.
Algunos, como las unidades de cobalto-60, van desapareciendo, pero su uso aún se
mantiene en algunos centros hospitalarios, por lo que pueden ser de interés para los
futuros técnicos especialistas.
2. Teleterapia
2.1. Objetivos de las máquinas de tratamiento en
teleterapia
Se denomina teleterapia a la técnica radioterápica en la que la radiación ionizante procede
de una fuente externa al paciente. El objetivo principal es administrar una dosis
terapéutica al volumen prescrito, minimizando en todo lo posible las dosis a los órganos
de riesgo.
Las unidades de tratamiento de teleterapia deben cumplir varios requisitos:
• Precisión geométrica: fundamental para garantizar que no se van a irradiar zonas que
no están previstas en la planificación dosimétrica realizada por el servicio de
radiofísica.
• Precisión dosimétrica: tiene que garantizarse que la dosis impartida por la unidad
mantenga una constancia dentro de unas tolerancias admisibles, pues no sería
asumible que presentara variaciones excesivas a lo largo del tratamiento.
Como se verá más adelante, estos dos puntos deben mantenerse durante toda la vida
útil de la unidad, y garantizar su constancia es la razón del Control de Calidad.

2.2. Evolución histórica


La radioterapia es un ejemplo de cómo los avances de la Física producidos a lo largo del
siglo xx se han aplicado rápidamente a distintas disciplinas, como la Medicina. No podría
entenderse la Medicina moderna sin conocer los grandes avances científicos y
tecnológicos producidos en el siglo xx.
El nacimiento de la radioterapia, así como de la radiología y de la medicina nuclear,
viene marcado por dos hitos fundamentales en la historia de la Física: el descubrimiento
de los rayos X y el descubrimiento de la radiactividad.
En 1895, el físico alemán Röntgen descubre un tipo de radiación hasta entonces
desconocida, por lo que le dio el nombre de «rayos X». La radiación se producía en tubos
de vacío con un par de electrodos sometidos a alto voltaje. Este nuevo tipo de radiación
era capaz de impresionar una emulsión fotográfica, pero no era visible por el ojo
humano. Fotografió de esta manera diversos objetos, y comprobó que esos rayos eran
muy penetrantes, pues podía apreciarse que atravesaban la madera y muchos metales
menos densos que el plomo. Un día decidió fotografiar la mano de su esposa Berta,
realizando así la primera radiografía de la historia. El descubrimiento de los rayos X le
hizo merecedor del Premio Nobel de Física en 1901.
El descubrimiento de la radiactividad se debe al físico francés Becquerel, que
comprobó que unas sales de uranio eran capaces de velar una emulsión fotográfica en
ausencia de luz visible. En 1903 recibió el Premio Nobel de Física por su descubrimiento,
compartido con los también físicos franceses Pierre y Marie Curie, estos últimos
descubridores del polonio y del radio en 1898.
Muy pronto se descubrió la capacidad de las radiaciones ionizantes para destruir
tejidos tumorales. Los primeros tratamientos con rayos X datan de la década de 1900, y
fue el médico Salvador Celedonio Calatayud Costa quien introdujo en 1906 su uso
terapéutico en España.
En 1937 se utiliza el primer acelerador lineal de electrones que empleaba megavoltaje
en el Saint Bartholomew’s Hospital de Londres. Este acelerador conseguía una energía de
1 MV1 y tenía un tubo de rayos X de unos 9 metros de longitud.
En los años posteriores y durante la Segunda Guerra Mundial (1939-1945), con el
desarrollo del radar, se lograron importantes avances técnicos en la tecnología de
microondas, lo que dio lugar al desarrollo de generadores de microondas como el
magnetrón y amplificadores de potencia como el klistrón (klystron), que han
desempeñado y siguen teniendo un papel clave en los aceleradores lineales modernos.
En la década de 1950 comienzan a instalarse aceleradores lineales de electrones con
energías cada vez mayores, llegando a alcanzarse los 8 MV. También en estos años surgen
los primeros aceleradores de protones.
Paralelamente, entre 1950 y 1970, se extiende el uso de la emisión gamma del cobalto-
60 y se configuran las que se denominaron unidades de cobalto-60, máquinas con
capacidad de rotar para dirigir los haces de radiación en cualquier dirección dentro de un
mismo plano, utilizadas para los tratamientos de teleterapia. En el mismo período de
tiempo, también empezaron a utilizarse los betatrones. Su funcionamiento se basaba en
la aceleración de electrones, a los que se hacía describir órbitas circulares mediante un
campo magnético. De este modo podían conseguirse energías de 13-45 MeV. Su uso se
fue abandonando progresivamente debido a la baja tasa de dosis que se obtenía, lo que
hacía que los tratamientos fueran de muy larga duración.
En aquella época, los aceleradores tenían grandes dimensiones, algo que no podían
permitirse todos los centros, y a diferencia de la unidad de cobalto-60, la fuente de
radiación permanecía en una posición fija y había que mover al paciente durante el
tratamiento.
En los años 1970, gracias a la miniaturización de determinados componentes, se
introducen los primeros aceleradores lineales de electrones isocéntricos, esto es, con una
fuente de radiación que puede moverse alrededor del paciente. También aparecen los
primeros aceleradores lineales multienergéticos.
Las décadas de 1980 y 1990 destacan por la introducción del ordenador en el control de
los aceleradores, lo que ha permitido aumentar la fiabilidad de las máquinas y la
seguridad de los tratamientos. Durante este tiempo se introdujeron nuevos accesorios,
como el colimador multilámina.
La introducción del colimador multilámina ha permitido el desarrollo de nuevas
técnicas de tratamiento, como la radioterapia de intensidad modulada (IMRT, intensity-
modulated radiation therapy) en 1997.
En los últimos años, ya en el siglo xxi, el acelerador lineal de electrones constituye la
unidad de tratamiento más utilizada en los servicios de radioterapia, reduciendo la
unidad de cobalto-60 a una presencia residual. Han sido unos años de gran desarrollo
tecnológico, en los que se ha dotado a los aceleradores lineales de nuevas
funcionalidades y diseños. Estos años también se han caracterizado por un
resurgimiento de los aceleradores de protones y de partículas pesadas.

2.3. Equipos de terapia superficial


Un equipo de terapia superficial consiste básicamente en un generador y un tubo de
rayos X. Su principal característica es la posibilidad de administrar una dosis de
radiación sólo en las capas más superficiales de la piel o próximas a ella, de manera que
los tejidos más profundos queden expuestos a una dosis de radiación muy baja.
Su utilización se vio reducida tras la introducción de los modernos aceleradores
lineales de electrones multienergéticos que, como se estudiará más adelante, también
permiten el tratamiento de la piel con radiación de electrones. Sin embargo, en los
últimos años viven un resurgimiento debido a su menor coste.
Para poder comprender bien el funcionamiento de estos equipos, es necesario estudiar
en profundidad el tubo de rayos X.

El tubo de rayos X
Los rayos X utilizados en medicina se producen al colisionar un haz de electrones con un
objeto metálico. En la figura 6-1 se representa esquemáticamente un tubo de rayos X.
Consiste en un tubo de vidrio en el cual se ha realizado el vacío, un filamento de
tungsteno con voltaje (o tensión) negativo y un ánodo sometido a voltaje positivo.

FIGURA 6-1 Representación esquemática de un tubo de rayos X.

Debido a la corriente que recorre el filamento, algunos electrones son capaces de


«evaporarse», fenómeno conocido como efecto termoiónico. De no existir una fuerza
externa, los electrones permanecerían en las proximidades del filamento. Sin embargo,
dado que el cátodo y el ánodo están sometidos a una diferencia de potencial (con el
ánodo a tensión positiva), se genera un campo eléctrico entre ambos, cuya presencia
provoca una aceleración de los electrones hacia el ánodo (recuérdese que las cargas
negativas se ven atraídas por tensiones positivas). De este modo, los electrones
«evaporados» del filamento experimentan una aceleración hacia el ánodo, con el que
colisionan.
Tras la colisión, la energía cinética de los electrones se transforma principalmente en
calor, pero una pequeña parte de ella (en torno al 1%) se emite en forma de radiación
electromagnética (fotones) generada por un fenómeno conocido como radiación de
frenado (bremsstrahlung).
En la figura 6-1 también puede apreciarse que los electrones no impactan todos en un
mismo punto del ánodo, sino que lo hacen en una pequeña región, de manera que un
observador situado debajo del tubo podría detectar una mancha focal en vez de un punto
emisor.

Espectro de rayos X

Concepto de espectro
Ya se ha estudiado anteriormente (v. cap. 2) que el espectro electromagnético está
compuesto por fotones de distintas energías. La luz blanca visible, por ejemplo, está
comprendida en un rango de energías cercano a 1 eV. Como es sabido, la luz blanca está
compuesta por fotones de distintas energías, lo que el ojo humano aprecia como colores.
Esto se relaciona con la formación del arcoíris en un día de lluvia o con el hecho de que la
luz blanca, al atravesar un prisma, se descompone en varios colores o, más físicamente
hablando, los fotones se desvían en distintas direcciones, dependiendo de su energía. La
descomposición de la luz blanca al atravesar un prisma constituye un ejemplo de
espectro energético.
Una vez separados estos fotones por energías, puede hacerse una estadística de
cuántos hay en cada intervalo energético (tabla 6-1), es decir, contabilizar cuántos hay de
cada color y hacer una representación gráfica para cada intervalo de energías, lo que
producirá un diagrama de barras (fig. 6-2). Sin embargo, como puede apreciarse en la
figura 6-2, a medida que disminuye el intervalo elegido las barras son muy delgadas,
hasta llegar a apreciarse como una línea continua si el intervalo es infinitamente
pequeño. Esta representación gráfica es lo que se conoce como espectro energético.
Tabla 6-1
Número de fotones visibles agrupados por intervalo energético

Color Energía (eV) Número de fotones


Rojo (1,66, 2,04) 8.000
Naranja (2,04, 2,11) 10.000
Amarillo (2,11, 2,18) 14.000
Verde (2,18, 2,49) 27.000
Azul (2,49, 2,76) 13.000
Violeta (2,76, 3,27) 9.000

FIGURA 6-2 Forma de un espectro energético a medida que disminuye el intervalo de energías
elegido.

Dado que los rayos X también están constituidos por fotones, igualmente es posible
separar los fotones de distintas energías emitidos por un tubo de rayos X y obtener la
misma representación, lo que constituye el espectro energético de ese tubo de rayos X.

Descripción del espectro de rayos X


Como se acaba de exponer, los fotones generados por el tubo de rayos X no tienen una
única energía, sino que su energía presenta un espectro. Esto se debe a que no todos los
electrones pierden la misma cantidad de energía en forma de rayos X.
Puesto que el funcionamiento del tubo de rayos X se basa en la colisión contra el ánodo
de los electrones acelerados por un campo eléctrico producido por una diferencia de
potencial V, según las leyes de la física, la energía cinética que adquiere una partícula
cargada en un campo eléctrico producido por una tensión V es:

[1]
donde E es la energía, q es la carga eléctrica y V es la tensión aplicada. Para el caso de
un electrón sometido a una tensión de, por ejemplo, 100 kV, teniendo en cuenta que su
carga tiene un valor de 1,6 × 10−19 C, la energía adquirida por él sería:

[2]
o expresada en unidades de eV:

[3]

Es decir, los electrones acelerados por un kilovoltaje de 100 kV adquieren una energía
cinética de 100 keV, suponiendo que un electrón pierde toda su energía de una sola vez
en forma de rayos X. En este caso, la energía de los fotones resultantes también sería de
100 keV.
Sin embargo, esto no ocurre así: los electrones pierden una parte de su energía en
forma de calor y otra parte en forma de rayos X, pero no todos perderán la misma
energía. A su vez, los rayos X generados por efecto del distinto frenado que experimentan
los electrones (bremsstrahlung) tendrán diferente energía. Por tanto, habrá fotones de
distintas energías. Representando el número de fotones registrados (es decir, la
intensidad del haz de rayos X) frente a su energía, se obtiene su espectro (fig. 6-3).
FIGURA 6-3 Espectro de rayos X.

En la figura 6-3 se observa que la energía máxima de los fotones es precisamente la


energía cinética máxima que pueden adquirir los electrones acelerados bajo una tensión
V, dado que no es posible generar fotones con mayor energía (principio de conservación
de la energía). Un electrón podría colisionar perdiendo toda su energía en forma de rayos
X, pero no más.
En la misma figura 6-3, también parece haber una energía mínima de los fotones. En
realidad, los fotones con muy baja energía no llegan a salir del tubo o bien tienen tan
poca energía que son filtrados por las paredes de este y no llegan a detectarse. Si no
hubiera este filtrado, se obtendría el espectro representado por la línea discontinua.
Igualmente se observa un pico en una determinada energía, que son los rayos X
característicos propios del material del ánodo.

Calidad del haz


La forma del espectro no depende sólo del kilovoltaje aplicado, sino que también
depende del material contra el que se ha producido la colisión, en concreto de su número
atómico Z. Este hecho hace pensar que hablar de 100 kV o de 150 kV no es una buena
forma de caracterizar la energía de los fotones emitidos por un tubo de rayos X, pues
debería conocerse su espectro. Sin embargo, medir el espectro de un haz de rayos X no es
una tarea sencilla, lo que lleva a pensar que es mejor definir un parámetro que nos
indique la energía del haz o, lo que es lo mismo, su calidad.
El espectro también caracteriza su comportamiento al atravesar un medio. Con un haz
monoenergético de energía E, entonces puede encontrarse (v. cap. 2) que la intensidad de
un haz de rayos X que atraviesa un medio viene dada por:

[4]

donde I(x) es la intensidad (proporcional al número de fotones) que tiene el haz de


rayos X a lo largo de su trayectoria, I 0 es la intensidad inicial del haz de rayos X antes de
entrar en el medio, µ(E) es el coeficiente de atenuación lineal del material para una
determinada energía del fotón E, y x es el espesor de material atravesado. El coeficiente
µ(E) también puede definirse para un espectro polienergético como el que se tiene en un
tubo de rayos X.
Como µ(E) depende de la energía, un método sencillo para su obtención es interponer
un espesor determinado de un material y medir su atenuación. Por ejemplo, puede
medirse cuánto espesor hace falta para atenuar la intensidad del haz a la mitad, y este
espesor es lo que se denomina capa hemirreductora (HVL, Half Value Layer), que se define
como el «espesor de un material de composición determinada requerido para atenuar la
intensidad de un haz de una energía determinada a la mitad de su valor».
La capa hemirreductora depende de la energía. Dado que el coeficiente de atenuación
µ(E) depende de la energía, si la capa hemirreductora reduce a la mitad la intensidad del
haz, aplicando la ecuación 4:

[5]

de donde se obtiene que:

[6]

La capa hemirreductora también depende del material utilizado para atenuar la


energía. Este hecho se deduce igualmente de la ecuación 6, debido a que µ(E) también
depende del material que atraviesan los fotones.
Por ejemplo, en el caso de la radioterapia superficial, en lugar de caracterizar una
energía por 300 kV se denotaría por 3 mm Cu HVL, es decir, su capa hemirreductora sería
de 3 mm de cobre. De aquí no puede deducirse que todos los tubos de rayos X operando
a 300 kV posean la misma capa hemirreductora, ya que este valor depende, entre otros
factores, de la composición de la cápsula del tubo de rayos X (filtración intrínseca) que
deberán atravesar los fotones antes de ser detectados. Del mismo modo, no existe una
relación directa entre kV y capa hemirreductora, por lo que tampoco puede deducirse
que para el tubo citado 100 kV corresponda a una capa hemirreductora de 1 mm de Cu. El
valor de la capa hemirreductora de un material debe determinarse experimentalmente
para cada kilovoltaje de un tubo de rayos X.

Características y aplicaciones de los equipos de terapia superficial


Dado su bajo poder de penetración, es decir, dado que la energía de los fotones se
deposita en pocos milímetros por debajo de la superficie de la piel, estos equipos se
utilizan para tratamientos de lesiones cutáneas.
En la figura 6-4A se muestra un equipo de estas características, con el colimador de
tratamiento. La función del colimador (fig. 6-4B) es focalizar el haz de rayos X en la zona
a tratar, de manera que la radiación que llegue fuera del colimador sea mínima. Existen
colimadores de distintos tamaños, y pueden ser cuadrados o circulares de 1,5-20 cm de
diámetro. Si es necesario proteger zonas adicionales y el colimador no es suficiente, la
colimación en piel (fig. 6-4C) se consigue empleando láminas de plomo de pocos
milímetros de espesor recortadas según las necesidades del caso.
FIGURA 6-4 Equipo de terapia superficial. A) Vista del equipo. B) Colimador. C) Aplicación del
tratamiento, en la que puede observarse la colimación en la piel. (Fotografías por cortesía de Bioterra S.L.)

El tratamiento se realiza situando el colimador en contacto con la piel y a una distancia


desde el foco de unos 30-50 cm.
Para protegerse de la radiación dispersa, el operador debe situarse detrás de una
mampara plomada en la propia sala de tratamiento, mientras se produce el tratamiento.

Clasificación de los equipos según su voltaje acelerador


Atendiendo al voltaje aplicado, es tradicional clasificar los distintos equipos como:
• Kilovoltaje: 50-150 kV.
• Ortovoltaje: 150-500 kV.
• Supervoltaje: 500-1000 kV.
• Megavoltaje: más de 1.000 kV(>1 MV); es el caso de los aceleradores lineales de
electrones modernos.
En radioterapia superficial, el voltaje de los equipos comercializados suele encontrarse
en el rango de 50-300 kV, es decir comprendiendo a equipos de kilovoltaje y ortovoltaje.
Los equipos de supervoltaje no se utilizan en radioterapia en la actualidad, pero sí los
de megavoltaje, a los que pertenecen los aceleradores lineales de electrones que, por su
importancia, merecen una sección específica para su estudio. En estos equipos, el diseño
del tubo de rayos X no es suficiente para proporcionar una diferencia de potencial tan
grande como la requerida.

2.4. Unidades de cobalto-60


Son unidades de tratamiento que utilizan una fuente de 60Co, emisora de radiación
gamma procedente de las desintegraciones nucleares. Además del 60Co, también se
diseñaron unidades basadas en los isótopos 226Ra y 137Cs, pero ha sido el uso del 60Co el
que más ha perdurado en el tiempo, debido especialmente a su alta actividad específica,
esto es, a poder obtener mayor fluencia de fotones con pequeñas cantidades de material
radiactivo.

Cobalto-60
El 60Co se obtiene de manera artificial mediante bombardeo por neutrones del isótopo
estable 59Co:

[7]
El isótopo 60Co se desintegra emitiendo partículas β–, con una energía máxima de 0,32
MeV, transformándose en 60Ni:

[8]
Las partículas β− son fuertemente atenuadas por la misma fuente (autoabsorción) y por
la cápsula de acero que contiene el 60Co.
Por otra parte, el 60Ni se desintegra emitiendo fotones γ, con energías 1,17 MeV y 1,33
MeV (1,25 MeV en promedio), que son las utilizadas en el tratamiento de pacientes.
La forma habitual de la fuente de 60Co suele ser una caja en forma de cilindro o disco
de acero de 1 cm de diámetro, en cuyo interior se introducen unas virutas o bolitas de
60
Co. El período de semidesintegración del 60Co es de 5,27 años.

Componentes y accesorios de la unidad de cobalto-60


En la figura 6-5 pueden verse los distintos elementos de la unidad. La máquina tiene un
brazo (gantry) que soporta la cabeza de radiación, que es donde se aloja la fuente de 60Co.
El brazo permite girar la cabeza de radiación alrededor del paciente sobre un eje de
rotación. La cabeza de radiación puede rotar y dispone, a su vez, de un colimador
también rotatorio. La mesa de tratamiento también puede girar alrededor del mismo eje
de rotación que el colimador. El punto de intersección del eje de giro del brazo, del eje
del colimador y del eje de la mesa de tratamiento se denomina isocentro de la máquina
(fig. 6-6).

FIGURA 6-5 Unidad de cobalto-60. (Fotografías tomadas en la antigua Clínica Puerta de Hierro de Madrid.)
FIGURA 6-6 El isocentro es un punto del espacio, la intersección de los ejes de rotación.

La localización del isocentro en las salas de tratamiento se señala por medio de la


intersección de unas líneas de luz (de color rojo o verde), producidas por unos láseres
fijados (generalmente tres), colocados en dos paredes opuestas a ambos lados de la mesa
de tratamiento y en el techo o a los pies de la mesa.
Con la posibilidad de movimientos de la unidad de 60Co ya citada, el haz de radiación
siempre pasará por el isocentro y permite dirigir los haces de radiación en cualquier
dirección sin mover al paciente. La colocación del centro del tumor en el isocentro, en lo
que se llama técnica isocéntrica, tiene como ventaja el menor tiempo requerido para el
tratamiento, dado que no hay que posicionar el paciente para cada campo de tratamiento,
con lo cual se mejora el rendimiento de la unidad y se consigue una mayor precisión.
La distancia de la fuente al isocentro, en las unidades de cobalto, es típicamente de
80 cm, aunque también hay unidades con distancia fuente-isocentro de 100 cm, en las que
se requiere una mayor actividad de la fuente para conseguir una adecuada tasa de dosis
que no haga que los tiempos de tratamiento se prolonguen demasiado.
En la figura 6-7 se representa esquemáticamente el interior de la cabeza de la unidad,
que se encuentra recubierta de plomo y tungsteno para evitar la emisión de radiación
fuera de ella. El mecanismo de impulsión de la pastilla o fuente a la abertura por la que
sale la radiación consiste, en general, en un sistema de aire comprimido que la desplaza a
la posición de tratamiento (fig. 6-7B). Una vez finalizado el tiempo de irradiación
prescrito, el mecanismo consta de un resorte que hace que la fuente vuelva a su posición
de reposo (fig. 6-7A). El sistema está diseñado de manera que, ante una falta de
suministro eléctrico, el mecanismo de aire comprimido se interrumpe y la fuente vuelve
a su posición de reposo, lo que obliga a estar bombeando aire continuamente para
mantener la fuente en su posición de tratamiento. El nombre de «bomba de cobalto» se
debe a este mecanismo de aire comprimido que bombea la fuente a su posición de
tratamiento.

FIGURA 6-7 Representación esquemática del interior de la cabeza de una unidad de cobalto-60. A)
En posición de reposo, no hay emisión de radiación, ya que la fuente se encuentra dentro del
blindaje. B) En posición de tratamiento, la radiación es emitida a través de los colimadores. Nótese
cómo el testigo es visible desde el exterior.

Los colimadores, también llamados «mordazas» (por su traducción del inglés, jaws),
tienen como función restringir la radiación de modo que sólo alcance la zona de
tratamiento. El inconveniente es que, dado que sus bordes son rectilíneos, únicamente
pueden configurarse campos de tratamiento rectangulares. Para diseñar campos de
tratamiento con formas más complejas se utilizan bloques de plomo, que se sitúan sobre
una bandeja (v. fig. 6-5). Los bloques pueden diseñarse de una sola pieza o apilando
piezas de menor tamaño, como las mostradas en la figura 6-8. Estas unidades también
disponen de cuñas que se interponen en el campo de radiación para conseguir
modificarlo y obtener una adecuada conformación de la distribución de la radiación
alrededor del tumor.
FIGURA 6-8 Bloques de plomo utilizados en una unidad de cobalto-60.

El tamaño del campo de tratamiento se visualiza en la superficie del paciente mediante


la luz de campo o luz de simulación, con lo que se representa la proyección (tamaño y
forma) que tendría el campo de radiación sobre la piel del paciente.
La distancia de la fuente a la piel del paciente puede medirse con un telémetro óptico,
que proyecta una escala graduada luminosa sobre la piel.
La sala de tratamiento tiene que estar blindada, de manera que la radiación no llegue a
los operadores de la sala de control ni a las salas colindantes. En la sala de control (fig. 6-
9) se encuentra la consola desde donde se opera la unidad (fig. 6-10). Entre sus funciones
se encuentran el seleccionar e indicar el tiempo de irradiación o exposición mediante un
temporizador que retorna la fuente a su posición de reposo cuando el tiempo se haya
alcanzado, y fijar los parámetros geométricos de la irradiación (ángulo del brazo,
amplitud de los arcos de irradiación a realizar, etc.). Cuenta también con los dispositivos
de seguridad y alarma sobre el correcto funcionamiento de la unidad. El temporizador
tiene como característica relevante el ser redundante, pues cuenta con dos relojes, de
manera que el segundo actúa interrumpiendo la irradiación en caso de fallo del principal.
La consola de control incluye una llave que habilita la irradiación para evitar el uso no
autorizado.
FIGURA 6-9 Unidad de cobalto-60: sala de control.
FIGURA 6-10 Unidad de cobalto-60: consola de control.

Como medida de control del paciente desde fuera de la sala de tratamiento, puede
mantenerse el contacto con él mediante un circuito cerrado de televisión y un interfono
(fig. 6-11). Como medida de seguridad, se dispone además de un detector ambiental de
radiación que advierte de la presencia de radiación en la sala, aun cuando esta es
inevitable, como sucede cuando se está llevando a cabo el tratamiento del paciente. Este
aparato tiene carácter redundante, pues en caso de que la fuente no retorne a su posición
de reposo por un mal funcionamiento de la unidad, la alarma del detector seguirá
funcionando. Por ello, es perfectamente normal que la luz de la alarma esté encendida
durante el tratamiento, pero no así cuando este ha finalizado.

FIGURA 6-11 Unidad de cobalto-60: detector ambiental de radiación y elementos de vigilancia del
paciente. A) Interior de la sala de tratamiento. B) Detalle de la sala de control.
En la figura 6-12 se muestra un posible diseño de una sala de tratamiento con una
unidad de cobalto-60, donde se aprecia el blindaje de las paredes y la ubicación de la
consola de control. Las salas de control deben disponer de un interruptor en la puerta
que, en caso de ser abierta, hace retornar la fuente a su posición de reposo si se está
irradiando en el interior de la sala.

FIGURA 6-12 Plano esquemático de una sala de tratamiento dotada con una unidad de cobalto-60.

Ventajas e inconvenientes
Las unidades de cobalto-60 presentan las siguientes ventajas:
• Debido a la sencillez de su diseño, se caracterizan por tener un índice relativamente
bajo de averías.
• Su coste y mantenimiento son muy inferiores al de los aceleradores de partículas.
• Pueden instalarse en salas de reducido tamaño.
• En comparación con los aceleradores lineales de electrones, los espesores de los
blindajes son menores.
• En comparación con las unidades de terapia superficial, permiten tratar zonas más
profundas.
Sin embargo, también presentan inconvenientes:
• Posibilidad de accidentes, ya que la fuente puede no volver a su posición de reposo.
• En comparación con los aceleradores lineales de electrones, el tamaño de la fuente
produce un mayor tamaño de la penumbra del campo de radiación.
• Sólo disponen de una energía de haz.
• La fuente tiene decaimiento radiactivo, lo que alarga los tratamientos al final de su vida
útil y hace que tenga que ser sustituida periódicamente.
• Desde la perspectiva de la protección radiológica, siempre hay riesgo de radiación al
tratarse de fuentes radiactivas, lo que obliga a procedimientos específicos de trabajo
que tengan en cuenta este aspecto.
• Requiere procedimientos de desmantelamiento adecuados que tengan en cuenta la
eliminación de la fuente radiactiva.

2.5. Aceleradores lineales de electrones


Los aceleradores lineales de electrones (ALE; o LINAC [linear accelerator]) basan su
funcionamiento en el mismo principio que el tubo de rayos X antes estudiado, es decir,
electrones acelerados que colisionan con un metal, donde se producen rayos X (RX) por
bremsstrahlung.
Los ALE también pueden funcionar proporcionando haces de electrones para su uso
clínico, lo cual se consigue con sólo retirar el blanco metálico con el que chocan para
conseguir RX.
La ingeniería de los ALE es muy compleja y puede variar mucho de unos fabricantes a
otros. A continuación se dan unas pequeñas nociones de la estructura y la funcionalidad
de los ALE.
La aceleración de los electrones se consigue por medio de un campo electromagnético
con frecuencia de microondas. Este campo electromagnético es inyectado en la guía de
ondas aceleradora e interacciona con los electrones inyectados por el cañón de
electrones, los cuales son aceleradores hasta velocidades próximas a las de la luz a lo
largo de la guía de ondas.
La guía de ondas aceleradora es la parte fundamental de un ALE y consiste de un tubo
que contiene una serie de discos que dividen la estructura en cavidades a lo largo de su
longitud. Es en estas cavidades donde se establecen los intensos campos magnéticos que
proporcionan la energía a los electrones, haciendo que adquieran de manera progresiva y
creciente velocidades próximas a la de la luz (fig. 6-13A).
FIGURA 6-13 Esquema del brazo del acelerador lineal de electrones. A) Detalle de la sección
aceleradora.

La generación de las microondas se consigue por medio de una fuente de potencia de


microondas, que de forma pulsada proporciona la potencia necesaria para aportar la
energía requerida por los electrones. Esta fuente de potencia puede conseguirse bien
mediante magnetrones o klistrones. Los magnetrones son osciladores que extraen la
energía de microondas de los electrones inyectados en una estructura resonante
sometida a un fuerte campo magnético, en la cual se producen una serie de fenómenos
físicos que originan una transferencia de energía de los electrones a la estructura
resonante, energía que se extrae para acelerar los electrones en la guía de ondas del ALE.
Los magnetrones generalmente se utilizan cuando las energías que se quiere obtener en
el ALE son inferiores a 6 MV, aunque hay diseños modernos que pueden llegar a
proporcionar energías muy superiores de una forma eficiente.
El klistrón, a diferencia del magnetrón, no es un oscilador sino un amplificador de
potencia. Esto requiere entonces una señal de radiofrecuencia para ser amplificada, lo
cual a su vez precisa de un oscilador de radiofrecuencia de baja potencia. La función del
klistrón es la de amplificar esta señal a los niveles requeridos por los electrones a acelerar
en el ALE.
Los klistrones se suelen utilizar en aceleradores que precisan energías de RX
superiores a 6 MV.
Una vez acelerados los electrones en la guía aceleradora, entran en el cabezal y se
deflectan 270° por medio de una serie de bobinas magnéticas (bending magnet) (fig. 6-13).
Esta deflexión es necesaria porque las guías de ondas suelen tener una longitud tal que
no pueden colocarse verticalmente para dirigir el haz hacia la mesa de tratamiento.
Además de esta funcionalidad de cambiar la dirección del haz, tiene la de filtrar y
controlar la energía de los electrones constituyentes del haz, para conseguir que este sea
lo más monoenergético posible.
Esta deflexión, en ciertos modelos de ALE normalmente de baja energía (no precisan
largas secciones aceleradoras), no se utiliza. En estos diseños, la guía de ondas
aceleradora en el cabezal del ALE en vertical, y así se puede direccionar el haz hacia la
mesa de tratamiento. El control energético se logra por medio de ranuras detectoras de la
energía de los electrones. En general, los ALE pueden proporcionar diferentes energías
de RX y de electrones.
La energía se sigue describiendo en MV, según la energía máxima que puede llegar a
tener el fotón más energético del espectro de RX obtenido en el proceso de generación
del haz en el ALE. Energías habituales son, por ejemplo, 6, 10, 15 o 18 MV. Sin embargo,
al igual que en los tubos de RX, también hay que utilizar un índice de calidad para dar
una información más precisa del espectro energético de los haces, pues dos aceleradores
con una energía nominal de 6 MV pueden tener distintos espectros aun siendo del
mismo modelo.
La descripción de la energía de los haces de electrones, cuando el ALE funciona para
proporcionar haces de electrones, también pueden hacerse de acuerdo con la energía que
tienen a la salida de la guía aceleradora. Las energías habituales de los haces de
electrones de ALE clínicos son 4, 6, 10 o 18 MeV. No obstante, también con este tipo de
haces se utiliza un índice de calidad descriptor de la energía. Las denominaciones (MV o
MeV) son entendidas como energías del fabricante o nominales.
Los índices de calidad mencionados para haces de RX y electrones son:
• TPR20,10 en RX. Para determinar este parámetro se mide la dosis con una cámara de
ionización fijada a nivel del isocentro del ALE, colocada en el interior de un maniquí
de medida, a dos profundidades diferentes (20 y 10 cm), manteniendo la distancia
entre la cámara de ionización y el foco a 100 cm. La relación entre las medidas
obtenidas a estas dos profundidades es el valor TPR20,10. Cabe señalar, que este índice
obtenido como cociente de dos valores de dosis es adimensional.
• R50 en electrones. Éste índice representa la profundidad a la cual el valor de la dosis es
la mitad que en la profundidad del máximo de la curva de rendimiento en profundidad
de un determinado haz que se toma como referencia. Al tratarse de una profundidad,
el índice tiene dimensiones de longitud.

Elementos de un acelerador lineal de electrones


En la figura 6-14 se distinguen las partes que componen el ALE:
• Brazo o gantry: es una estructura que contiene, entre otros sistemas, la guía
aceleradora, y puede girar alrededor del paciente. En su extremo soporta el cabezal,
que es la parte donde se produce la deflexión y control dosimétrico y geométrico del
haz de radiación. Del cabezal emerge el haz de radiación.
• Cabezal: comprende un conjunto de sistemas, como son el blanco de producción de RX
y la deflexión del haz, los cuales están blindados al objeto de limitar la radiación de
fuga. Los sistemas de control dosimétrico y geométrico del haz de radiación también
se encuentran en el cabezal, y se estudiarán con más detalle en el apartado
«Funcionamiento del acelerador lineal de electrones en modo fotones». En algunos
diseños incorpora también un detector anticolisión, que imposibilita realizar
movimientos en caso de colisión con el paciente o con la mesa de tratamiento. En su
interior se encuentran los siguientes dispositivos:
• Colimadores: los aceleradores modernos disponen de tres tipos de colimadores, cuya
función es restringir el tamaño del haz al adecuado para el tratamiento.
– Existe uno primario de forma cónica, situado a la salida del haz, que restringe el
tamaño de campo al máximo que puede proporcionar el ALE, en caso de que los
otros colimadores estén abiertos al máximo. No es visible desde el exterior.
– Por debajo de este colimador primario se encuentran las mordazas o colimadores
secundarios, cuya función es limitar y absorber la parte del haz máximo que no va a
ser utilizada en la conformación última del haz. Está formado por dos pares de
mandíbulas, situadas una debajo de la otra (fig. 6-15). En algunos diseños de ALE,
estas mandíbulas se encuentran después del colimador multiláminas. A diferencia
del colimador primario, que produce un tamaño de campo fijo, los colimadores
secundarios permiten variar el tamaño de campo de radiación.
– Por último, a la salida del haz se encuentra el colimador multiláminas (si no se
trata de los ALE que los colocan por encima de las mandíbulas) (fig. 6-16). Este
tipo de colimador multiláminas (MLC, multileaf collimator) está formado por pares
de láminas enfrentadas que pueden moverse independientemente, configurando
la forma del campo de radiación necesario. Las láminas están fabricadas con
tungsteno.
– Estos dos últimos colimadores tienen un sistema de giro que les permite orientar
adecuadamente la posición del campo de tratamiento frente a la región del
paciente a tratar. Así mismo, ambos tipos de colimadores suelen tener un diseño
que permite delimitar el haz respetando su divergencia natural para minimizar la
penumbra.
• Bandeja portamoldes y moldes: dado que los haces de radiación necesarios son
normalmente irregulares, es preciso modificar la forma de los haces para
acomodarlos a la de la región del paciente a irradiar. En caso de no disponer de MLC,
en los aceleradores antiguos se puede recurrir a la utilización de bloques estándar de
material de alta densidad (Pb, W). También pueden fabricarse en un taller de moldes
(fig. 6-17), utilizando una aleación de alta densidad y bajo punto de fusión
(Cerrobend2), pudiendo fabricarse bloques a partir de piezas prefabricadas (fig. 6-
18A), o bien personalizados para cada paciente (fig. 6-18B). Estos bloques, colocados
en unas bandejas fijadas mediante unos carriles a la cabeza del ALE, permiten lograr
la forma o conformación adecuada a cada caso.
• Telémetro: su función es proyectar, mediante un haz de luz, una escala métrica en la
piel del paciente que sirve para establecer y comprobar la distancia entre el foco de
radiación y la piel.
• Mesa de tratamiento o camilla: es la parte de la unidad destinada a situar al paciente.
Consiste en una superficie plana (tablero) y permite realizar desplazamientos en las
tres direcciones espaciales, así como hacer rotaciones describiendo una circunferencia
centrada en el isocentro alrededor del eje suelo-techo. El tablero está diseñado en su
mayor parte con elementos radiotransparentes, es decir, que pueden ser atravesados
por la radiación sin sufrir atenuaciones significativas de la radiación, en incidencias
oblicuas o posteriores. Sin embargo, no todos los tableros están construidos por
completo con materiales radiotransparentes, por lo que hay que asegurarse de que
estos elementos no se encuentren en el haz de tratamiento.
• Láseres: estos dispositivos, generalmente en número de 3 o 4, son situados en las
paredes o techo de la sala de tratamiento, de manera que su luz pase por el isocentro
del ALE, materializando el cruce de todos ellos la posición del mismo.
• Cuñas: Son dispositivos que se utilizan para modificar las características dosimétricas
del haz de radiación, de modo que pueda compensar diferencias de espesores en el
paciente y lograr una adecuación de las distribuciones de dosis a la región a irradiar.
Existen tres tipos básicos:
• Cuñas físicas: son cuñas de material de alta densidad que se sitúan en el cabezal del
ALE, de modo similar a como se coloca la bandeja portamoldes (fig. 6-19). Se suele
disponerse de un juego con diferentes ángulos de cuña.
• Cuñas motorizadas: la cuña se encuentra en el interior de la cabeza del acelerador y
se interpone en el haz de radiación de manera automática durante todo el
tratamiento o parte del mismo. Solo existe una cuña de una determinada angulación
o forma.
• Cuñas dinámicas o virtuales: el efecto de cuña se consigue mediante el
desplazamiento de los colimadores o mordazas durante la irradiación.
• Aplicadores de electrones (fig. 6-20): es la forma como se denominan los colimadores
de electrones. Es una colimación adicional a la utilizada para los rayos X, que de no ser
empleada ocasionaría que la penumbra de los haces de los electrones (provocada por la
gran dispersión que experimentan los electrones en el aire) fuese excesivamente
grande y, por tanto, inadecuada para los tratamientos. Otra función es adaptar la forma
del campo de radiación a la de la zona a irradiar. Constan de una serie de barras
metálicas recortadoras del haz que se sitúan próximas a la piel del paciente. Puesto que
habitualmente la forma de las regiones a irradiar es irregular, suelen emplearse piezas
o moldes de material absorbente, sujetos a los aplicadores, que recortan el haz
cuadrado o rectangular conseguido con los aplicadores, dando la forma deseada al
campo de tratamiento.
• Accesorios de radiocirugía: los tratamientos de radiocirugía pueden realizarse
utilizando como colimador terciario, en vez de un MLC, un colimador cónico adicional
(fig. 6-21), que determina unos campos circulares de reducido tamaño (entre 2 y 40 o
50 mm de diámetro). El uso de estos colimadores de pequeño tamaño se restringe a la
radiocirugía, en la que se emplean técnicas de alta precisión posicional y geométrica, y
altas dosis únicas, para minimizar las dosis periféricas a la lesión a irradiar.
FIGURA 6-14 Acelerador lineal de electrones.
FIGURA 6-15 Colimadores. Se encuentran en el interior del colimador; la fotografía se tomó
desmontando previamente la carcasa.
FIGURA 6-16 Colimador multilámina.
FIGURA 6-17 Taller de moldes.

FIGURA 6-18 Moldes de plomo. A) Sin divergencia. B) Con divergencia.


FIGURA 6-19 Cuña física de 30°.
FIGURA 6-20 Aplicador de electrones situado en posición de tratamiento. En el extremo del
aplicador más próximo al paciente se sitúa el molde.
FIGURA 6-21 Colimador cónico de radiocirugía, de 15 mm de diámetro.

Funcionamiento del acelerador lineal de electrones en modo fotones


El funcionamiento del ALE en modo emisión de fotones se basa en el mismo principio
que el tubo de rayos X, es decir, en la producción de radiación de frenado al colisionar un
haz de electrones contra un material blanco. En la figura 6-22 puede verse un esquema
general.
FIGURA 6-22 Interior del cabezal en modo fotones.
A diferencia del tubo de rayos X, en el ALE el material blanco funciona por
transmisión, es decir, los electrones inciden por un lado y los fotones de rayos X se
emiten por el lado contrario al material blanco. Una vez atravesado el blanco, los fotones
que no tienen la dirección deseada son eliminados por medio del colimador primario. En
este punto, como puede verse en la figura 6-22, el perfil dosimétrico del haz de radiación
tiene un aspecto de campana de Gauss, dado que hay más dosis en el centro que en los
bordes del haz. Por la falta de homogeneidad de los haces, que provoca que la dosis en el
centro no sea la misma que en el borde del haz, se introduce un filtro aplanador
constituido por un disco de perfil cónico de un material de alta densidad y/o número
atómico, que permite obtener un haz con un perfil dosimétrico plano.
En algunos ALE diseñados para tratamientos con campos de tratamiento muy
pequeños es posible eliminar este elemento, ya que el efecto de inhomogeneidad es más
pequeño. Además los ALE de última generación están diseñados para trabajar con haces
no planos, consiguiéndose de esta manera obtener tasas de dosis más elevadas al
eliminarse la absorción debida al filtro aplanador.
El control de las características del haz, tales como su planitud, simetría, tasa de dosis,
etc., se realiza mediante cámaras de ionización monitoras que están interpuestas en la
trayectoria del haz, dentro del cabezal. En caso de pérdida de estas características, las
cámaras monitoras envían una señal correctora o de aviso para lograr la interrupción del
haz. Estas cámaras monitoras son redundantes y tienen múltiples funciones, como medir
la tasa de dosis o controlar la simetría del haz.
La necesidad de disponer de cámaras monitoras se debe a la potencial inestabilidad
que tiene cualquier dispositivo electrónico, que puede dar lugar a que los fotones no sean
emitidos de un modo tan regular como por ejemplo en una unidad de cobalto-60, que
emite la radiación de una manera estable regulada por la propia naturaleza de la
desintegración radiactiva. En los ALE se utiliza la unidad de monitor (UM), que está
relacionada con la carga eléctrica recogida en la cámara monitora necesaria para
depositar una dosis determinada en un punto y ciertas condiciones de medida en agua
determinadas, a las que llamamos condiciones de referencia. Habitualmente estas
condiciones son una distancia fuente-superficie de 100 cm, una profundidad de 10 cm y
un tamaño de campo de tratamiento de 10 cm × 10 cm.
Si por ejemplo, en estas condiciones de referencia, se miden 70 cGy para una energía
de 6 MV en un disparo de 100 UM, entonces:

[9]

Funcionamiento del acelerador lineal de electrones en modo electrones


Los fotones de megavoltaje tienen un poder de penetración mayor que los fotones
emitidos por el 60Co. Sin embargo, en ocasiones, es necesario tratar lesiones superficiales
que comienzan en la piel y tienen una profundidad limitada de unos pocos centímetros.
En estos casos se utiliza el tratamiento con electrones, dado que tienen menos poder de
penetración y se evita depositar altas dosis de radiación en tejidos que se encuentran más
allá de la lesión a tratar.
En la figura 6-23 se muestra un esquema del modo de funcionamiento en electrones.
En este modo, se elimina el elemento blanco y los electrones del cañón impactan
directamente contra una lámina dispersora. El efecto de esta lámina es dispersar los
electrones para obtener un campo de radiación extendido y uniforme en la superficie del
paciente.
FIGURA 6-23 Interior del cabezal en modo electrones.

Después de atravesar las láminas dispersoras, el haz de electrones es controlado en


intensidad y geometría mediante las cámaras monitoras del acelerador, que se
encuentran en la trayectoria emergente de los electrones.
Los colimadores actúan de la misma forma que en el modo fotones, restringiendo el
haz de radiación a la región del paciente a tratar. En este modo de trabajo con electrones,
el MLC no cumple ninguna función, permaneciendo sus láminas completamente
retraídas. Dado que los electrones sufren múltiples cambios de dirección en el aire, su
penumbra a nivel del paciente es excesiva para un uso terapéutico. Esto hace que sea
necesaria una colimación adicional para reducirla adecuadamente. Para ello, se utiliza el
aplicador de electrones antes descrito, cuya función es colimar el haz a la distancia más
próxima posible a la piel del paciente. En el aplicador, además, pueden insertarse moldes
con formas personalizadas realizadas con una aleación de bajo punto de fusión
(Cerrobend), de manera que se bloqueen las zonas que no deben ser tratadas (v. fig. 6-20).

La sala de tratamiento
En la figura 6-24 pueden verse dos posibles diseños de una sala de tratamiento: una con
laberinto de largo recorrido y otra que utiliza puerta blindada, que ha de ser motorizada
por su gran peso.

FIGURA 6-24 Sala de tratamiento de un acelerador lineal de electrones. A) Sin puerta motorizada.
B) Con puerta motorizada.

En ambos casos debe existir un interruptor asociado a la puerta, de manera que impida
la radiación cuando esta se encuentre abierta.
El llamado botón de último hombre tiene por objeto habilitar la emisión de radiación una
vez abandonada la sala por los operadores, quienes deben asegurarse de que en ella sólo
queda el paciente antes de pulsar dicho botón y salir de la sala.
Existen elementos adicionales de seguridad, como son el interfono y el circuito cerrado
de televisión. Además, la consola de control está dotada de una llave que imposibilita su
manipulación por personal no autorizado.
Diseños particulares de acelerador lineal de electrones
Lo expuesto anteriormente corresponde al tipo de ALE más utilizado, el acelerador en C,
denominado así por la forma de su brazo. Sin embargo, en los últimos años han surgido
nuevos diseños de aceleradores, en los que se cambia el diseño en C y se opta por
simetrías cilíndricas o bien por brazos robóticos.

Equipos de tomoterapia helicoidal


La tomoterapia tuvo su origen añadiendo un MLC a un ALE con diseño en C, de modo
que podían moverse las láminas a la vez que giraba el brazo. Posteriormente se diseñaron
máquinas específicas en las que el ALE está situado en una estructura anular (fig. 6-25) y
se puede desplazar la mesa a la vez que gira el brazo y se mueven las láminas. Es un
diseño muy similar al de la tomografía computarizada helicoidal, sólo que el tubo de
rayos X se sustituye por una guía de ondas aceleradora que proporciona una energía de 6
MV y se prescinde de filtro aplanador. La distancia entre la fuente y el isocentro es de
85 cm.

FIGURA 6-25 Equipo de tomoterapia helicoidal. (Fotografía por cortesía de Accuray.)


Esta unidad no dispone de telémetro, luz de campo ni láseres marcando el isocentro;
estos últimos son sustituidos por un sistema de láseres móviles que marcan el punto
donde debe situarse el paciente.
Otra diferencia es que es el tiempo el que determina la duración del disparo, y no la
medida del número de unidades de monitor.

Otros equipos de tratamiento


Existen otros equipos cuyo diseño se basa en una guía aceleradora instalada en un brazo
robótico (fig. 6-26). Su denominación comercial es «Ciberknife». Su diseño se inspira en
los brazos robóticos de las fábricas de automóviles. Tiene una sola energía de fotones y
está destinada a tratamientos de radiocirugía e hipofraccionados.

FIGURA 6-26 Equipo con brazo robótico. (Fotografía por cortesía de Accuray.)

También hay equipos portátiles capaces de irradiar solo con haces de electrones,
diseñados para procedimientos de radioterapia intraoperatoria. Como no se utilizan RX
no son necesarios los blindajes que son precisados para un acelerador convencional de
RX y pueden llegar a poder utilizarse en un quirófano.

2.6. Aceleradores circulares de partículas


Son aceleradores de diseño circular empleados para acelerar protones o partículas más
pesadas, tales como iones de carbono o helio. Este tipo de radiación se caracteriza por
tener un alcance determinado por su energía y una dosis a la entrada del paciente muy
reducida. Los iones de carbono y helio, por otra parte, se distinguen por presentar una
alta transferencia lineal de energía, por lo que el efecto biológico conseguido es superior
al de la terapia con fotones o electrones.
La finalidad consiguiente del uso de estos haces de radiación es respetar, en mucha
mayor medida de lo que se obtiene con fotones o electrones, las regiones sanas vecinas al
tumor, con una eficiencia biológica superior.
Las máquinas utilizadas para conseguir acelerar este tipo de partículas son los
ciclotrones o sincrotrones.

Ciclotrón
El ciclotrón consiste en una cavidad cilíndrica dividida en dos mitades en forma de D
(fig. 6-27), atravesadas por un campo magnético constante uniforme paralelo a su eje. El
efecto que tiene el campo magnético sobre las partículas cargadas es desviarlas de modo
que dichas partículas giran en órbitas circulares de radio directamente proporcional a su
velocidad, siguiendo la relación:

[10]
FIGURA 6-27 Ciclotrón.

donde r es el radio de la órbita descrita, m la masa de la partícula acelerada, v su


velocidad, q su carga y B la magnitud del campo magnético al que están sometidas las
dos D. Por otra parte, entre las dos D se establece un campo eléctrico de alto voltaje
también constante, que acelera las partículas al pasar de una D a la otra.
Como consecuencia del aumento de su energía cinética, las partículas describen
órbitas de radios cada vez mayores, ya que en la ecuación 10 se muestra que r y v son
directamente proporcionales. Situando una rendija a la distancia adecuada del centro, es
posible extraer las partículas con la energía deseada.
Si las partículas aceleradas son protones, pueden hacerse impactar con un material de
bajo número atómico, generándose así un haz de neutrones. De esta manera pueden
utilizarse también neutrones con fines terapéuticos. En física nuclear, las partículas
subatómicas, tanto los neutrones como los protones o los iones más pesados como los de
carbono o helio, se definen como hadrones, por lo que en numerosas ocasiones se
denomina «terapia hadrónica» al uso terapéutico de este tipo de partículas.
El ciclotrón tiene más aplicaciones en medicina aparte del campo de la radioterapia.
Así, existen ciclotrones construidos de manera específica para la fabricación de
radioisótopos para medicina nuclear. El más frecuentemente producido es el 18F, que se
utiliza para marcar la glucosa y otras moléculas que se emplean en las tomografías de
emisión de positrones (PET) para el estudio diagnóstico funcional y metabólico.

Sincrotrón
A diferencia del ciclotrón, los campos magnéticos y eléctricos son variables. En el
ciclotrón las partículas son aceleradas de modo que varía su velocidad lineal, pero no su
velocidad angular. Ambas se relacionan por:

[11]

donde ω es la velocidad angular, v es la velocidad lineal y r es el radio de la trayectoria.


La velocidad angular se define como el ángulo recorrido por la unidad de tiempo, y por
tanto tiene unidades de rad/s, por lo que también recibe el nombre de frecuencia angular.
Por otro lado, la frecuencia angular es directamente proporcional a la frecuencia, es decir,
al número de revoluciones por unidad de tiempo. El sincrotón se caracteriza porque el
campo eléctrico alterno que se introduce entre las dos D tiene la misma frecuencia que la
frecuencia de giro de las partículas.
3. Resumen
• La teleterapia consiste en el tratamiento radioterápico por medio de una fuente de
radiación ionizante externa al paciente.
• Los equipos de terapia superficial se basan en el uso de tubos de RX. Los electrones son
acelerados por medio de una tensión de kilovoltaje. La energía de los tubos se
caracteriza por su capa hemirreductora.
• Entre los equipos de teleterapia que utilizan fuentes radiactivas destaca la unidad de
cobalto-60. La fuente de cobalto-60 emite fotones con una energía promedio de 1,25
MeV, y su período de semidesintegración es de 5,27 años.
• Los aceleradores lineales de electrones (ALE) pueden proporcionar distintas energías
de fotones y electrones.
• En el modo de fotones, los ALE obtienen los rayos X mediante radiación de frenado al
impactar un haz de electrones contra un material blanco. Los electrones son acelerados
por medio de campos electromagnéticos en una guía de ondas.
• En el modo de electrones, se retira el material blanco y los electrones impactan
directamente contra una lámina dispersora, lo que proporciona al haz de electrones
homogeneidad radial. Los electrones son utilizados en el tratamiento de lesiones
superficiales.
• Existen diseños alternativos al habitual acelerador en C, como los equipos de
tomoterapia helicoidal, los fabricados con brazos robóticos y los equipos portátiles de
electrones.
• Los aceleradores circulares de partículas se emplean para la obtención de radiación de
hadrones (neutrones, protones e iones pesados). Destacan dos diseños: ciclotrón y
sincrotrón.
Bibliografía
Johns HEJ, Cunningham JR. The physics of radiology. 4th ed. Springfield; Illinois: Charles C. Thomas; 1984.
Karzmark CJ, Nunan CS, Tanabe I. Medical electron accelerators. New York: McGraw-Hill; 1993.
Khan FM. The physics of radiation therapy. 4th ed. Baltimore: Lippincott Williams & Wilkins; 2010.
Thwaites DI, Tuohy JB. Back to the future: the history and development of the clinical linear accelerator. Phys Med Biol.
2006;51:R343–R362.

1
Esta forma de caracterizar la energía se detallará más adelante. A efectos prácticos, MV describe y está en relación con la
energía de los fotones, y MeV describe y está en relación con la energía de los electrones acelerados.
2
El Cerrobend, también conocido como metal de Wood, es una aleación de bajo punto de fusión (70 ºC). Está compuesto
por bismuto, plomo, estaño y cadmio.
C AP Í T U L O 7
Equipos de control de posicionamiento
guiado por imagen en radioterapia
Ruth Rodríguez Romero

Pablo Castro Tejero

Jaime Martínez Ortega

ÍNDICE
1. Introducción 81
2. Generalidades 81
3. Evolución histórica 84
4. Sistemas de imagen radiológica bidimensional 85
4.1. Imágenes portales 87
4.2. Imágenes de rayos X de kV 97
5. Sistemas de imagen radiológica tomográfica o volumétrica 101
5.1. Tomografía computarizada convencional en sala 102
5.2. Tomografía computarizada de haz cónico 102
5.3. Tomografía computarizada de haz de MV en
abanico 103
6. Sistemas basados en radiaciones no ionizantes 104
6.1. Imagen por resonancia magnética 104
6.2. Imagen por ecografía 106
6.3. Localización por infrarrojo 107
6.4. Localización por radiofrecuencia 109
6.5. Imagen por cámara de vídeo 109
7. Resumen 110
Bibliografía 110
1. Introducción
La adquisición de imágenes que proporcionen información anatómica del paciente en la
unidad de tratamiento, permite verificar y corregir, si fuese necesario, el posicionamiento
de este para poder llevar a cabo el tratamiento de radioterapia de acuerdo con lo
planificado. Para ello, se comparan las imágenes adquiridas en la sala de tratamiento con
imágenes de referencia del paciente, como las obtenidas en la simulación. En este
capítulo se abordan las características principales y el funcionamiento básico de las
modalidades de guiado por imagen habituales en radioterapia, así como nociones básicas
sobre las herramientas informáticas de registro y fusión de imágenes.
2. Generalidades
Los tratamientos de radioterapia se diseñan para administrar la dosis de radiación
prescrita al volumen tumoral, preservando en la medida de lo posible los órganos de
riesgo circundantes. Por ello, el correcto posicionamiento del paciente en la unidad de
tratamiento es crucial para llevar a cabo la irradiación de acuerdo con lo planificado.
Habitualmente se coloca al paciente utilizando marcadores o referencias externas, como
tatuajes en la piel, que se alinean con respecto a los indicadores luminosos del equipo
(láseres, cruceta, telémetro) para situar el volumen a tratar dentro del haz de radiación.
En la figura 7-1 se muestra una máscara correspondiente a un tratamiento localizado en
cabeza y cuello. Los láseres rojos permiten situar la máscara respecto al isocentro de la
unidad de tratamiento. La proyección de la cruceta sobre el telémetro permite
determinar la distancia del foco de radiación respecto a la superficie del paciente, en este
caso la máscara. Las marcas (cruces rojas) y la forma de los campos (contorno negro)
ayudan a posicionar al paciente inmovilizado por la máscara.

FIGURA 7-1 Alineamiento de máscara mediante indicadores luminosos.

Sin embargo, los marcadores externos no siempre son representativos de la posición


de los órganos internos: la piel del paciente puede estirarse o deformarse con facilidad,
las máscaras tienen pequeñas holguras que permiten al paciente ligeras variaciones en la
posición, y los órganos internos tienen cierta movilidad, por lo que no siempre están en
la misma ubicación. Para comprobar con mayor precisión el posicionamiento del
paciente, en la propia sala de tratamiento se obtienen imágenes de su anatomía que se
comparan con las adquiridas en el proceso de simulación, y se corrige el posicionamiento
o el acondicionamiento del paciente (p. ej., nivel de llenado de la vejiga o del recto) si
fuese necesario. A esta modalidad de radioterapia se la denomina radioterapia guiada
por la imagen (IGRT, image guided radiotherapy).
Un sistema de guiado por la imagen debe ser capaz de generar, en cada sesión de
tratamiento, imágenes con calidad suficiente para distinguir entre tejidos blandos.
También ha de ser simple y rápido, reduciendo la probabilidad de movimientos del
paciente y favoreciendo el rendimiento de la unidad de tratamiento al acortar los tiempos
de espera. Cuando la adquisición de la imagen se realiza previamente a la sesión de
tratamiento, permite corregir la posición del paciente antes de su irradiación y
compensar el movimiento entre sesiones de tratamiento o movimiento interfracción. Si se
adquieren imágenes durante la sesión de tratamiento puede controlarse el movimiento
intrafracción, y adquiriendo de modo continuo es posible monitorizar el movimiento de la
lesión, sincronizándolo con la irradiación a lo largo de toda la trayectoria (tracking) o en
una posición determinada (gating) de la lesión.
La localización del volumen tumoral mediante imagen no elimina en su totalidad los
errores de posicionamiento, ya que, además de movimientos internos involuntarios del
paciente, existen limitaciones mecánicas del equipo, imprecisiones del observador que
analiza la imagen, etc., que impiden la completa corrección. Para tener en cuenta estos
efectos, se definen márgenes que aumentan la zona a irradiar garantizando que el
volumen tumoral reciba la dosis de radiación prescrita. Aplicando márgenes grandes se
asegura la administración de dosis al tumor a costa de incluir mayor cantidad del tejido
sano próximo. El guiado por imagen permite reducir, pero no suprimir, estos márgenes
sin afectar al tratamiento del tumor.
Existen distintas modalidades de equipos que ayudan a posicionar al paciente
mediante imagen en la unidad de tratamiento. La mayoría implican el uso de radiaciones
ionizantes para la obtención de imágenes aprovechando el propio haz de fotones de
tratamiento (denominadas imágenes portales), o bien incorporan equipos de rayos X, ya
sea integrados en la unidad (LMID, LINAC mounted imaging devices, conocidos también
como OBI, on board imager) o independientes de esta. Aunque también se ha investigado
la formación de imágenes a partir de la radiación de frenado presente en los haces de
electrones, su uso no se ha extendido a la práctica clínica habitual. Los efectos biológicos
debidos a la exposición a radiaciones ionizantes dependerán de la dosis absorbida, y se
describen en profundidad en el correspondiente capítulo 11 (Radiobiología).
Otras modalidades de IGRT obtienen imágenes mediante ultrasonidos o cámaras de
vídeo. Asimismo, se dispone de técnicas de localización y posicionamiento del paciente
por radiofrecuencia o infrarrojo (radiación electromagnética no ionizante, fig. 7-2), que
no precisan imagen y suelen utilizarse de forma complementaria al guiado por la
imagen.
FIGURA 7-2 Espectro electromagnético. La radiación electromagnética se propaga, sin necesidad
de medio material, a través de ondas cuya energía es proporcional a la frecuencia e inversamente
proporcional a su longitud de onda. Sólo la radiación electromagnética de alta frecuencia es capaz
de ionizar la materia.

Independientemente de la técnica de adquisición de imagen empleada, se necesitan


imágenes de referencia obtenidas en la simulación (convencional o mediante tomografía
computarizada [TC]) para evaluar las posibles desviaciones entre ambos juegos de
imágenes, esto es, entre la posición sobre la que se ha diseñado el tratamiento y la
posición detectada en la unidad de tratamiento. En el caso de simulación convencional,
se comparan imágenes bidimensionales (2D), mientras que para la simulación TC puede
ocurrir que el posicionamiento en tratamiento sea mediante proyecciones 2D, y entonces
se requiere generar reconstrucciones radiográficas digitales (DRR, digital radiographic
reconstructions) de dichas proyecciones a partir del estudio tridimensional (3D) TC de
simulación. La figura 7-3 muestra la DRR de una incidencia lateral. También el sistema de
adquisición de imagen en la unidad de tratamiento puede proporcionar imágenes
tomográficas y compararlas directamente con el estudio volumétrico de simulación.
FIGURA 7-3 Reconstrucción radiográfica digital (DRR) de una incidencia lateral, en la que se
superponen las estructuras presentes en todas las vistas o cortes sagitales de las imágenes
de tomografía computarizada.

Para determinar los desplazamientos existentes entre imágenes se utilizan


herramientas informáticas similares a las empleadas para comparar distintas
modalidades de imagen, como TC, resonancia magnética (RM) o tomografía por emisión
de positrones (PET). Estos programas, además de automatizar el registro (ajuste de
posición entre imágenes para hacerlas coincidir) y la fusión (visualización superpuesta)
de imágenes, cuantifican el desplazamiento detectado. La mayoría de los algoritmos de
registro asumen el paciente como una estructura rígida, no deformable, y consideran
sólo traslaciones y rotaciones en los tres ejes del espacio (seis grados de libertad). En los
casos de guiado por imagen 2D, normalmente las aplicaciones informáticas
proporcionarán sólo datos de traslaciones, y se aportarán datos de rotaciones
generalmente para estudios de imagen 3D. En la figura 7-4 se muestra el convenio de
traslaciones y rotaciones utilizado en radioterapia. Se establece considerando al paciente
en posición supina (boca arriba) con la cabeza hacia el cabezal del equipo de teleterapia.
El desplazamiento lateral de derecha a izquierda (RL) se corresponde con el eje X, el
desplazamiento longitudinal de pies a cabeza (FH) con el eje Y, y el desplazamiento
vertical en sentido posteroanterior (PA) con el eje Z. Se denomina pitch a la rotación
respecto al eje lateral X (RL), roll cuando la rotación se produce respecto al eje
longitudinal Y (FH), y yaw para el giro respecto al eje vertical Z (PA).
FIGURA 7-4 Convenio de traslaciones y rotaciones utilizado en radioterapia para definir la posición
del paciente.

Analizando los desplazamientos registrados en el posicionamiento del paciente a lo


largo de las sesiones de tratamiento, pueden observarse tendencias debidas, por ejemplo,
a holguras en la máscara o a pérdida de peso del paciente, y entonces es posible corregir
el problema o modificar el tratamiento para administrar la dosis de la manera prevista.
Estudiar muestras de pacientes por patología o localización permite establecer los
márgenes de seguridad adaptados a los protocolos de inmovilización e IGRT utilizados
en cada centro.
3. Evolución histórica
Se tiene constancia del uso de la imagen en los antiguos aceleradores de terapia de
kilovoltaje (kV) y, posteriormente, en aceleradores de alta energía de fotones
(megavoltaje, MV), así como en unidades de cobaltoterapia, donde se obtenían imágenes
con película radiográfica situada tras el paciente, a la salida del haz de tratamiento. La
imagen se utilizaba tanto para verificar la técnica de inmovilización como para
comprobar el correcto diseño de los moldes de tratamiento, más que la posición en sí del
paciente, debido a la falta de resultados inmediatos y a la escasa calidad de la imagen
radiográfica que se obtenía con haces de fotones de alta energía, por lo que el
posicionamiento del paciente respecto a los haces de tratamiento se realizaba basándose
en marcas dibujadas sobre la piel. Para mejorar la calidad de imagen, en algunos centros
se desarrollaron sistemas de tubos de rayos X, análogos a los empleados en
radiodiagnóstico, acoplados a unidades de cobalto-60 o integrados en el brazo de los
aceleradores. Sin embargo, tales desarrollos fueron intentos aislados que no se
extendieron a la práctica habitual, quizás debido a la necesidad de una herramienta que
realizara una comparación cuantitativa y rápida con los datos de referencia del paciente.
Más tarde, la disponibilidad de ordenadores y programas informáticos capaces de
registrar y fusionar imágenes cuantificando las diferencias existentes permitió retomar la
investigación sobre el uso de imágenes en la sala de tratamiento para posicionamiento
del paciente. La figura 7-5 muestra la primera unidad de tratamiento con sistema para
guiado por imagen.
FIGURA 7-5 Primer equipo de cobalto-60 isocéntrico con sistema de imagen guiada de rayos X de
kV, instalado en Holanda en 1960. (Por cortesía del Departamento de Historia de la Radioterapia del Instituto de
Cáncer Holandés.)

Hasta las últimas décadas del siglo xx no se implantó el uso de la imagen como
procedimiento habitual para verificar el posicionamiento en los tratamientos de
radioterapia. De hecho, los primeros estudios con guiado por la imagen sistematizados
se realizaron para tratamientos de intensidad modulada (IMRT, intensity modulated
radiotherapy) (esta técnica modifica o modula la intensidad del haz de radiación, lo que
permite el diseño de tratamientos complejos en los cuales la dosis se ajusta
especialmente al volumen tumoral para evitar la irradiación de órganos radiosensibles
próximos, y que por lo tanto requieren gran precisión en la colocación del paciente para
minimizar la dosis en los órganos de riesgo y garantizar que el tumor recibe la dosis de
radiación indicada).
En las unidades de terapia de protones se realizaron verificaciones pretratamiento
utilizando tres equipos de rayos X instalados en la sala.
Para aceleradores de electrones se desarrollaron sistemas de imágenes portales,
denominados así porque utilizan las «puertas» de entrada de los haces de tratamiento,
proporcionando, además de la imagen anatómica, la forma del campo de irradiación en el
paciente. Estos dispositivos se diseñaron en especial para haces de terapia de rayos X
(fotones de MV), basados inicialmente en la combinación de pantallas fluorescentes y
cámaras de vídeo. Como alternativa a esta tecnología, se propuso una matriz de cámara
de ionización líquida. En fechas más recientes se han introducido los sistemas de imagen
de silicio amorfo.
También se investigó la obtención de imágenes portales para campos de terapia de
electrones, a partir de la radiación de frenado originada por dichos haces (fig. 7-6). La
interacción de haces de electrones de energía de MeV produce una pequeña cantidad de
fotones de frenado, lo que supone una escasa eficiencia de detección en este tipo de
diseños. Este problema, unido a los rápidos avances tecnológicos en sistemas portales
para haces de fotones, hizo que se descartara el uso clínico de imágenes con haces de
electrones.

FIGURA 7-6 Obtención de imágenes mediante haces de electrones. La fotografía de la izquierda


muestra el montaje utilizado para adquirir una imagen de un maniquí antropomórfico mediante un
haz de electrones colimado. A la derecha se muestra la correspondiente imagen. (Imágenes por
cortesía de Jean Poliot y Michèle Aubin, Departamento de Oncología Radioterápica de la Universidad de California, San
Francisco.)

Asimismo, las herramientas de comparación de imágenes se han ido perfeccionando,


automatizando el proceso y posibilitando la evaluación de imágenes tridimensionales. En
un principio, estos desarrollos se centraban en corregir los desplazamientos entre
sesiones de tratamiento, asumiendo que el tumor no se mueve durante la sesión. Los
últimos avances en guiado por la imagen permiten controlar el movimiento intrafracción
y hacen posible la sincronización de la irradiación con la posición de la lesión.
Finalmente, la idea de utilizar los dispositivos de imágenes situados a la salida de haz del
paciente durante el tratamiento para evaluar la dosis que recibe, inicia una nueva vía de
aproximación a la radioterapia adaptativa (ART, adaptive radiotherapy), y facilita la toma
de decisiones para modificar el tratamiento a partir de la dosis recibida. El objetivo de la
radioterapia adaptativa, como su nombre indica, es adaptar el tratamiento a las
variaciones anatómicas experimentadas por el paciente respecto a la etapa de simulación;
para ello, se altera el diseño del tratamiento a fin de impartir la dosis inicialmente
prescrita, considerando los cambios en la geometría del paciente.
4. Sistemas de imagen radiológica bidimensional
De manera similar a la radiología convencional, la obtención de imágenes
bidimensionales de la anatomía del paciente ha permitido la comprobación geométrica
de su posicionamiento en la unidad de tratamiento. Para ello se utiliza radiación
ionizante (habitualmente rayos X) que atraviesa la región del paciente a estudiar,
alcanzando después el detector, que denominaremos receptor de imagen. Parte de los
fotones del haz incidente serán absorbidos y dispersados al interaccionar con los tejidos
del paciente, y se alterarán la intensidad y la fluencia del haz a la salida del paciente. La
energía y el número de fotones del haz de salida dependen tanto de sus valores iniciales
como de la composición y la densidad de las estructuras atravesadas, lo que proporciona
información de la anatomía del paciente. Este haz de fotones modificado interaccionará
con el receptor, que detecta y transforma la radiación en imagen.
Se trata de una imagen en negativo, en la cual las estructuras que tienen más
probabilidad de interacción (mayor número atómico) atenúan y dispersan mayor
cantidad de fotones, por lo que el detector recoge menor señal de radiación al
atravesarlas, mientras que estructuras de número atómico más bajo atenuarán y
dispersarán fotones en menor medida, por lo que el detector registrará mayor número de
fotones procedentes de estas estructuras. La diferente absorción de fotones proporciona
información útil sobre la anatomía del paciente, mientras que la radiación dispersa
contribuye a la dosis recibida por el paciente y produce emborronamiento en la imagen
si alcanza el receptor. Debido a esto, en radiodiagnóstico se utilizan energías del orden
de 100 kV para favorecer la probabilidad de efecto fotoeléctrico, que supone la absorción
completa de la energía del fotón incidente, frente a otros mecanismos de interacción. En
cambio, los haces con energías del orden de MV presentan mayor probabilidad de
interacción Compton, lo que implica absorción parcial de la energía del fotón incidente y
dispersión de fotones. Por lo tanto, la calidad de imagen será peor si empleamos haces de
alta energía.
Las imágenes obtenidas representan la proyección en dos dimensiones (2D) de la
anatomía del paciente como consecuencia de la atenuación de la radiación al
interaccionar con estructuras tridimensionales (3D). Esto ocasiona una pérdida de
información, en cuanto a que las estructuras situadas en una misma línea de proyección
se suman de manera indiscernible en un punto de la imagen. Por eso, en radiología se
realiza más de una proyección, variando el ángulo de incidencia, para distinguir
estructuras que puedan verse apantalladas por otras interpuestas en la trayectoria del
haz de radiación. Para ayudar en la localización de la lesión a tratar pueden implantarse
quirúrgicamente varios marcadores radioopacos (que absorben gran cantidad de
radiación), fácilmente identificables en las imágenes.
En radioterapia, para posicionar al paciente respecto al isocentro de radiación, se hace
necesaria la adquisición de al menos dos proyecciones. Normalmente se adquieren dos
imágenes ortogonales (fig. 7-7): una tomada en sentido anteroposterior (AP) o
posteroanterior (PA), que proporciona información sobre la posición longitudinal
(dirección cráneo-caudal) y lateral del paciente, y otra tomada en dirección lateral, ya sea,
de izquierda a derecha (LR, left-right) o viceversa (RL, right-left), que permite evaluar la
posición longitudinal y vertical (dirección AP) del paciente.

FIGURA 7-7 Proyecciones perpendiculares anteroposterior (AP, figura izquierda) y lateral derecha-
izquierda (RL, figura derecha). La proyección AP permite evaluar el posicionamiento en dirección
lateral y longitudinal, mientras que la proyección RL proporciona información sobre la posición en
dirección vertical y longitudinal.

Para una correcta interpretación de la imagen debe tenerse en cuenta el aumento o


magnificación que se produce al alejar el objeto a radiografiar del receptor de imagen. Es
por esto que las dimensiones de los objetos en la imagen serán siempre mayores que las
reales, salvo que se trate de un objeto plano en contacto con el receptor. En consecuencia,
las estructuras del paciente más próximas a la fuente de radiación, y por lo tanto más
alejadas del receptor de imagen, experimentarán un aumento mayor que aquellas
situadas más próximas al detector (y distantes de la fuente de radiación). Los esquemas
de la figura 7-8 ilustran el efecto de magnificación y pérdida de información que tiene
lugar en la obtención de imágenes bidimensionales.
FIGURA 7-8 Magnificación y pérdida de información en la obtención de imágenes bidimensionales.
En la figura de la izquierda, dos objetos de iguales dimensiones experimentan distintas
magnificaciones en función de su distancia al foco y al receptor de imagen: el círculo azul se
encuentra más cerca del foco emisor de radiación que del receptor de imagen, y proyecta una
«sombra» mucho mayor que el círculo rojo, que está más próximo al receptor. En la imagen de la
derecha, las dos estructuras se solapan parcialmente en la trayectoria del haz, proyectando una
única sombra correspondiente a la atenuación de la radiación al atravesar ambas estructuras. En
este caso, la proyección utilizada no permite distinguir ambos objetos.

4.1. Imágenes portales


Se denomina imagen portal a la obtenida mediante la exposición al haz de radiación de
tratamiento de teleterapia. Esto supone el uso de altas energías, lo que redunda en una
peor calidad de imagen frente al radiodiagnóstico. En los aceleradores lineales
multienergéticos suele emplearse la menor energía de fotones disponible para lograr un
mejor contraste.
Las imágenes portales presentan además otras utilidades, como la verificación
dosimétrica de los tratamientos o la determinación de la dosis recibida por el paciente,
calibrando la señal detectada por el receptor de imagen en dosis absorbida. También
sirven para realizar comprobaciones geométricas del haz de radiación de la unidad de
tratamiento, tales como la coincidencia del campo de luz y del campo de radiación, o la
localización del isocentro de radiación respecto al isocentro mecánico.
Además, permiten verificar la forma del campo sobre el volumen a irradiar para haces
de tratamientos conformados por el colimador multilámina (MLC, multileaf collimator),
utilizando habitualmente la técnica de doble exposición que consiste en adquirir una
imagen con las láminas en posición de tratamiento y otra con las láminas retiradas y las
mordazas abiertas varios centímetros respecto a la posición anterior (fig. 7-9). El campo
de tratamiento aparecerá sombreado en la imagen, facilitando la identificación de la
forma del campo y su posición respecto a estructuras anatómicas próximas al volumen de
tratamiento. Esta práctica sirve fundamentalmente para comprobar el correcto
posicionamiento del MLC en los campos de tratamiento, y es en especial útil en
instalaciones antiguas que no dispongan de redes informáticas de verificación y registro
de datos. Los equipos actuales cuentan con sofisticados y fiables sistemas de seguridad
que impiden la irradiación si las láminas no están situadas conforme al tratamiento
diseñado, por lo que suele ser suficiente la localización del paciente respecto al isocentro
mediante proyecciones ortogonales.

FIGURA 7-9 Las imágenes de doble exposición se obtienen como suma de dos irradiaciones: una
con la colimación del haz de tratamiento y otra para un campo rectangular mayor que el de
tratamiento.

Película radiográfica
Según hemos visto anteriormente, es el método más antiguo de radioterapia guiada por
imagen, en el que esta se obtiene utilizando el propio haz de radiación del equipo de
teleterapia y receptores de imagen similares a los chasis radiográficos convencionales.
La película radiográfica permite obtener una imagen de un objeto irradiado a partir de
la interacción de la radiación emergente del objeto con los cristales de haluros de plata
contenidos en su emulsión. Requiere un procesado químico para revelar la imagen
latente generada por la radiación. La figura 7-10 muestra el funcionamiento básico de
una máquina de revelado automático para películas radiográficas. La emulsión de la
película es sensible tanto a la radiación de alta energía como a la luz visible. Por ello, para
evitar la aparición de artefactos o velado de las películas, deberán manipularse en cuartos
oscuros con luz roja (fotones visibles de menor energía), y almacenarse en zonas no
expuestas a radiación, siguiendo las recomendaciones de temperatura y humedad
especificadas por el fabricante.
FIGURA 7-10 Máquina de revelado automático de películas radiográficas. El sistema de rodillos de
la procesadora sumerge la película en una primera cubeta o tanque con líquido para revelar la
imagen latente, y después en otra cubeta con líquido para fijar la distribución de iones que configuran
la imagen. Por último, la película se sumerge en agua para eliminar la presencia de los líquidos
anteriores, y el proceso concluye con un ciclo de secado.

Una película irradiada y posteriormente revelada mostrará mayor grado de


ennegrecimiento en las zonas donde haya recibido mayor exposición o dosis de
radiación. Atendiendo a la probabilidad de interacción de los tejidos en función de su
composición, podemos identificar como huesos las zonas blancas (menos expuestas) con
estructuras de alto número atómico (mayor probabilidad de absorción y dispersión de
fotones). Las áreas negras (más expuestas) se corresponden con medios de bajo número
atómico (menor probabilidad de absorción y dispersión de fotones), como el aire
presente en los intestinos o los pulmones. Los tejidos de número atómico intermedio,
como los músculos, quedarán representados en tonos de grises más o menos intensos en
función de la menor o mayor probabilidad de interaccionar con fotones.
En radiodiagnóstico se utilizan películas y chasis para el rango de energía de rayos X
(kV) con pantallas intensificadoras o de refuerzo que, además de convertir la radiación en
luz, amplifican la señal detectada mejorando la calidad de imagen, lo que permite reducir
la energía (kV) y la intensidad (mA) del haz de radiación utilizado y, con ello, la dosis de
radiación recibida por el paciente. Sin embargo, la obtención de imágenes con haces de
terapia conlleva la exposición a fotones de mayor energía (MV), por lo que resultan
necesarios receptores de imagen adaptados a estas condiciones de irradiación.
Inicialmente las imágenes portales se adquirían situando el chasis entre una lámina de
Cu y otra de plástico o metálica, a modo de sándwich. Se interponía una lámina de
aproximadamente 1 mm de Cu para absorber fotones de baja energía del haz de
tratamiento y generar electrones de alta energía que alcanzaran la película. La lámina de
plástico o metal situada tras el chasis se colocaba para retrodispersar parte de los
electrones que escapasen del chasis. Para obtener distintas proyecciones se utilizaban
bandejas portachasis (accesorios que permitían disponerlo en distintas posiciones y
orientaciones, fig. 7-11), buscando siempre su irradiación perpendicular al haz. Se
desarrollaron sistemas película-chasis específicos para el rango de energía de teleterapia,
consiguiendo una mejora en la calidad de las imágenes. No obstante, en los últimos años
la tendencia de las películas radiográficas, tanto en el ámbito de diagnóstico como en el
de radioterapia, ha sido la de desaparecer, siendo sustituidas por sistemas digitales.

FIGURA 7-11 Ejemplos de sujeción de chasis para la obtención de imágenes portales mediante un
pedestal móvil orientable (a la izquierda) o con anclajes a la mesa de tratamiento (fotografía de la
esquina inferior derecha).

El principal inconveniente de la obtención de imágenes portales mediante película


radiográfica es el tiempo que transcurre desde que el paciente está posicionado en la
mesa de tratamiento hasta que la imagen, tomada a continuación, está lista para su
análisis. El proceso de revelado dura varios minutos, durante los cuales el paciente
deberá permanecer inmóvil. Además, las imágenes pueden presentar sobreexposición o
subexposición (muy oscura o muy clara) como consecuencia de una técnica de irradiación
no adecuada o de variaciones de temperatura o de concentración de los líquidos de
procesado en el revelado, lo que dificulta su interpretación o, incluso, motiva la
adquisición de nuevas imágenes. A diferencia de los sistemas de registro digitales, las
películas radiográficas no permiten realizar ajustes posteriores que mejoren la
visualización de las imágenes adquiridas. La comparación entre imágenes se realiza de
manera cualitativa, por apreciación visual, y proporcionan valores de desplazamiento
aproximados, salvo que se digitalicen las películas mediante escáner para su registro
informatizado. Se trata de un material fungible (las películas no pueden ser reutilizadas
una vez irradiadas) y especialmente sensible, que exige una cuidosa manipulación y
almacenamiento, así como la instalación (preferiblemente en un lugar cercano a las
instalaciones de radioterapia) y el mantenimiento periódico de una reveladora. Por otro
lado, los dispositivos de sujeción para el chasis no garantizan su correcto alineamiento
(centrado en la zona a tratar y perpendicular al haz de radiación), y en ocasiones se
obtienen imágenes incompletas para la localización de la lesión a tratar o proyecciones
oblicuadas que proporcionan información anatómica engañosa. En la figura 7-12 se
muestra una comparación entre la radiografía obtenida en un simulador convencional y
su correspondiente imagen portal radiográfica, para un haz tangencial en un tratamiento
de mama. Se observa una discrepancia en el posicionamiento de la paciente: la curvatura
de la pared costal no se encuentra en la misma situación respecto al campo de
tratamiento. Además, la imagen portal adquirida mediante la técnica de doble exposición
proporciona un tamaño de campo trapezoidal, en lugar de rectangular como el de
simulación, por falta de perpendicularidad del receptor de imagen respecto al haz de
tratamiento.

FIGURA 7-12 La imagen de la izquierda corresponde a una simulación convencional de un haz


tangencial para el tratamiento de mama. A la derecha se muestra su imagen portal obtenida
mediante película radiográfica. La proyección del campo de tratamiento está remarcada en trazo
amarillo discontinuo, mientras que el trazo curvilíneo en ambas imágenes representa la pared costal,
situada entre la mama y el pulmón.

Radiografía computarizada
La progresiva evolución de la radiología basada en película radiográfica hacia sistemas de
registros digitales ha llevado a la implantación de esta tecnología, emergente en
radiodiagnóstico, en el ámbito de la radioterapia guiada por la imagen. Tal es el caso de
los primeros dispositivos digitales conocidos como CR, de computed radiography
(radiografía computarizada). Los receptores de imagen CR tienen un aspecto similar al
de los chasis convencionales (fig. 7-13), sustituyendo la película radiográfica por una
lámina fotoluminiscente que almacena la imagen de forma latente y requiere también un
procesado previo a su visualización. A cambio, proporciona una imagen digital y, por lo
tanto, susceptible de posteriores ajustes para un mejor análisis.

FIGURA 7-13 Chasis para película radiográfica (fotografías de la izquierda) y para CR (fotografías
de la derecha).

El haz de fotones atenuado tras atravesar al paciente incide sobre la pantalla de fósforo
contenida en el chasis, y excita sus átomos al absorber la energía de los fotones
incidentes. Parte de la energía absorbida es emitida instantáneamente en forma de luz,
mientras que algunos átomos permanecen excitados en estados metaestables (o trampas
de energía). Para su desexcitación necesitan ser estimulados mediante radiación
electromagnética, liberando la energía acumulada en las trampas y emitiendo de nuevo
señal luminosa (luminiscencia), bien de manera inmediata (fluorescencia) o bien
gradualmente a partir del estímulo (fosforescencia). Ambos fenómenos luminiscentes
coexisten en el proceso de desexcitación. Para la obtención de la imagen se utiliza la
emisión controlada de fluorescencia.
En la figura 7-14 se muestra un lector de CR junto con diagramas que describen su
funcionamiento, así como los fenómenos que tienen lugar en los átomos de la pantalla
fotoluminiscente.

FIGURA 7-14 Lectura de CR. La fotografía de la izquierda muestra un lector y un chasis de CR. La
CR se basa en la desexcitación fotoestimulada de materiales, como el fósforo, cuyos átomos
permanecen excitados tras la exposición a rayos X. En el diagrama superior derecho se describe el
comportamiento atómico, mientras que el esquema inferior derecho resume el funcionamiento de un
lector.

El proceso de lectura de la imagen consiste en estimular con luz (fotoestimulación) la


pantalla de fósforo irradiada. Para ello se emplea un escáner cuyo haz de láser barre la
superficie de la lámina y provoca, a su paso, la emisión de la energía acumulada en las
trampas. Esta señal luminosa emitida es detectada por tubos fotomultiplicadores que
convierten la radiación visible en señal eléctrica amplificada para su posterior
digitalización. Por motivos de continuidad y consistencia con las películas radiográficas,
la radiología digital ha mantenido el convenio de representación de la imagen en escala
de grises, haciendo corresponder el color blanco o negro a una menor o mayor detección
de señal, debida por lo tanto a la presencia de estructuras de alto y bajo número atómico,
respectivamente. Sin embargo, es posible representar la intensidad de radiación
utilizando otra paleta de colores, invertir la escala, aplicar filtros de imagen para reducir
el ruido o, simplemente, variar el ancho y el nivel de ventana para visualizar
convenientemente determinadas estructuras. Existen, por ejemplo, valores de ventana
predeterminados, en especial indicados para visualizar tejido blando, óseo o pulmonar.
Constituye una práctica habitual en la localización para tratamientos de cáncer de mama
el modificar la ventana para ver la pared costal y el pulmón, y por otro lado la
piel, para identificar el contorno de la mama. En la figura 7-15 se muestran diferentes
visualizaciones a partir de una imagen radiológica digital.
FIGURA 7-15 La imagen de la izquierda corresponde a una radiografía de muñeca sin procesar,
mientras que en la imagen central se ha ajustado en ancho y nivel de ventana para una mejor
visualización ósea, y en la imagen derecha se ha invertido la escala de grises.

La adquisición de imágenes mediante CR también requiere cierto tiempo debido al


procesado necesario para su lectura y visualización, aunque menos que el invertido en el
proceso de revelado de películas. Por esta razón, resulta recomendable disponer del
sistema de lectura en las proximidades de las salas de tratamiento para acortar los
tiempos de espera. El hecho de que las imágenes sean digitales permite su posterior
manipulación para mejorar la visualización, e incluso corregir o compensar posibles
defectos debido a la técnica de exposición seleccionada, con lo que se reduce la tasa de
repetición de imágenes. También facilita el registro informático de imágenes,
proporcionando así datos cuantitativos fiables. A diferencia de las películas, las láminas
de fósforo son reutilizables, tras su correspondiente proceso de borrado mediante
escaneo láser para eliminar la imagen remanente, aunque su vida útil es limitada.
Igualmente, presenta problemas de alineamiento respecto al paciente y al haz de
radiación, debidos a la imprecisión de algunos sistemas de sujeción. En general,
proporciona mejor calidad de imagen que la película radiográfica, e incluso que los
dispositivos electrónicos de imagen portal iniciales. En la figura 7-16 se compara una
imagen de DRR con su correspondiente imagen portal obtenida mediante CR.
FIGURA 7-16 Posicionamiento de una paciente para el tratamiento de un cáncer de mama
mediante imagen portal de exposición simple adquirida con CR. Ambas imágenes muestran la
proyección de un campo de tratamiento tangencial; la imagen izquierda corresponde a la
reconstrucción radiográfica digital (DRR) obtenida a partir de la TC de simulación, y la imagen
derecha corresponde a la imagen portal de CR.

Dispositivos electrónicos de imagen portal


Los dispositivos electrónicos de imagen portal (EPID, electronic portal imaging device) son
sistemas receptores de imagen integrados en los aceleradores lineales de electrones que
adquieren la imagen utilizando habitualmente la menor energía de fotones disponible,
para mejorar el contraste, y obtienen imágenes con gran rapidez.
Suelen estar acoplados de forma permanente al acelerador por medio de un brazo
mecánico articulado que permite situar el receptor de imagen enfrentado al haz, para
detectar la radiación a la salida del paciente, o bien replegar el receptor de imagen
cuando no es utilizado para evitar posibles colisiones con la mesa de tratamiento o con el
paciente. Es posible variar la posición del detector, tanto en altura como lateralmente y
longitudinalmente, para realizar la adquisición adaptándose a la geometría de
irradiación.
No obstante, algunos de los primeros diseños eran removibles (accesorios que podían
quitarse y ponerse) y situaban el receptor en una posición fija invariable al anclarlo al
brazo para la adquisición de la imagen. En ambos casos, el receptor de imagen gira de
manera solidaria al cabezal, permitiendo la adquisición de imágenes en cualquier
incidencia (no sólo AP/PA y RL/LR), y el posicionamiento del receptor resulta más
sencillo y preciso que en los casos anteriores. Aunque deben comprobarse los correctos
nivelado y posicionamiento del detector, presenta menos problemas en cuanto a la
precisión geométrica, ya que el foco de radiación empleado para generar la imagen es el
mismo que el de tratamiento. La figura 7-17 muestra distintos diseños de EPID para
aceleradores lineales de electrones.
FIGURA 7-17 Dispositivos electrónicos de imagen portal de aceleradores lineales de electrones.
Su diseño evolucionó desde modelos removibles de posición fija (A) hasta sistemas retráctiles
articulados (C) y de posición variable (B y D). (A, C y D tomadas de: Munro P. Portal imaging technology: past,
present, and future. Semin Radiat Oncol. 1995;5:115-33, con autorización de Elsevier; B tomada de: Antonuk LE.
Physics in medicine and biology, 47 2002 R31-R65, con autorización del autor y del Institute of Physics Publishing.)

Estos equipos de imagen surgieron a finales de los años 1950 como solución al
problema de la falta de inmediatez de las películas radiográficas, por el tiempo que ha de
transcurrir entre la irradiación de la película y la disponibilidad de la imagen para su
análisis, después de su revelado. En cambio, los sistemas EPID obtienen imágenes
digitales de manera relativamente sencilla y ágil, transformando la radiación en señal
eléctrica. Esto, junto con el hecho de que están incorporados en los propios aceleradores
lineales de electrones, hace posible disponer de la imagen casi de inmediato. La
electrónica asociada a estos equipos es sensible a la radiación, por lo que deberá
restringirse la exposición al área de detección para evitar fallos y prolongar la vida de los
componentes.
A diferencia de los chasis con película o pantalla de fósforo, no es necesario acceder a
la sala de tratamiento para situar el receptor de imagen en cada adquisición, lo que
facilita la obtención de imágenes durante el tratamiento, incluso en modo continuo o
secuencial para verificar el movimiento intrafracción del paciente. (La adquisición de
imágenes de manera continua se conoce como fluoroscopia o modo escopia, mientras que
la adquisición de sucesivas imágenes de denomina modo cine.) Si se calibra el sistema en
dosis absorbida, podría utilizarse como dosímetro in vivo, midiendo la dosis recibida por
el paciente en la unidad de tratamiento, que podrá ser comparada con la dosis teórica
calculada en el diseño del tratamiento.
Existen diversos tipos de EPID, que han ido evolucionado desde el uso de detectores
fluoroscópicos acoplados a cámaras de televisión (TV) hasta matrices de paneles planos,
pasando por matrices de cámaras de ionización líquidas.
Equipos fluoroscópicos basados en cámaras ópticas
Estos sistemas EPID están constituidos por una estructura formada por una placa
metálica de 1 o 2 mm de cobre, acero o latón, y una pantalla de un compuesto de fósforo
fluorescente acoplado a una cámara de TV o CCD (charge-coupled device, dispositivo de
carga acoplada). El haz de tratamiento que ha atravesado al paciente incide en la plancha
metálica, arranca electrones de sus átomos y son absorbidos los fotones de menor
energía (que disminuirían el contraste de la imagen). Estos electrones interaccionan con
la pantalla de fósforo provocando la emisión de radiación visible (debido a la
fluorescencia), que es focalizada hacia la cámara mediante un espejo para evitar la
irradiación directa de los componentes ópticos y electrónicos. La figura 7-18 ilustra el
funcionamiento del EPID de fluoroscopia.

FIGURA 7-18 Esquema de funcionamiento de los EPID fluoroscópicos basados en cámaras


ópticas.

Si se utiliza una cámara de TV, normalmente tipo vidicon, su objetivo está compuesto
de una capa de material fotoconductor que emite electrones al absorber la luz incidente,
quedando cargada positivamente en función de la señal recibida. Mediante un haz de
electrones se barre esta distribución de carga (que representa la imagen). Se produce una
pérdida de electrones del haz de barrido al incidir en áreas positivas (por ausencia de
electrones) del fotoconductor que atraen y capturan electrones para llenar sus huecos. La
corriente eléctrica así generada forma la señal de vídeo, que es digitalizada para obtener
una imagen digital. Este funcionamiento se asemeja al de los equipos intensificadores de
imagen utilizados convencionalmente en fluoroscopia, y muestra también cierto grado
de distorsión geométrica y remanencia en sus imágenes.
Siguiendo la tendencia de la fluoroscopia en radiodiagnóstico, las cámaras de TV han
sido sustituidas por cámaras CCD, que consisten en una matriz bidimensional de
sensores luminosos de estado sólido y condensadores, de modo que cada combinación
de ambos forma un píxel. Están compuestas de silicio, un material semiconductor
fotosensible que produce pares electrón-hueco al interaccionar con fotones luminosos.
Estos sistemas son más compactos que los basados en cámara de TV y sus imágenes no
presentan distorsión ni fenómenos de remanencia de imagen, pero sí un mayor nivel de
ruido que puede requerir algún tipo de posprocesado para reducirlo.
En la figura 7-19 se muestran los distintos sistemas de cámaras ópticas utilizadas en
EPID fluoroscópicos.

FIGURA 7-19 Sistemas de cámaras ópticas utilizadas en los EPID fluoroscópicos. En la fotografía
superior izquierda se observan distintos tipos de cámaras de TV, cuyo funcionamiento se ilustra en
la imagen inferior izquierda. En la parte derecha se muestran la fotografía de un dispositivo CCD y
su correspondiente esquema.

Existe una variedad de sistemas portales basados en señal de vídeo (fig. 7-20), que
abarca dispositivos en parte o completamente retráctiles, otros rígidos y removibles, e
incluso algunos, desarrollados por fabricantes independientes a los aceleradores lineales
de electrones, que además de desmontables son portátiles.
FIGURA 7-20 Modelos de EPID fluoroscópicos y de cámaras ópticas. Las fotografías A y B se
corresponden con sistemas basados en cámara de TV. En el primer caso, la posición del dispositivo
es variable, mientras que el segundo, a pesar de ser retráctil, sólo permite adquirir imágenes en una
posición fija. Los diseños de las fotografías C y D utilizan cámaras CCD. El tercer ejemplo muestra
un modelo removible y de posición única. La cuarta fotografía es de un dispositivo independiente del
acelerador lineal de electrones y portátil, de posición regulable. (B y C tomadas de: Munro P. Portal imaging
technology: past, present, and future. Semin Radiat Oncol. 1995;5:115-33, con autorización de Elsevier; A y D tomadas
de: Antonuk LE. Physics in medicine and biology, 47 2002 R31-R65, con autorización del autor y del Institute of Physics
Publishing.)

En general, el uso de EPID fluoroscópicos, disponibles desde la década de 1980,


supuso mejoras frente a la adquisición de imágenes portales con chasis (ya sea película o
CR), en cuanto a la precisión de posicionamiento del receptor de imagen y la reducción
de los tiempos de espera, pero no especialmente en lo que se refiere a calidad de imagen
(fig. 7-21). Por otro lado, la limitada o nula movilidad de su estructura a menudo obligaba
a desacoplarla del brazo, para evitar colisiones, por lo que su manejo resultaba
incómodo. Este tipo de EPID ya no se comercializa, pues han sido sustituidos por
desarrollos posteriores.
FIGURA 7-21 Posicionamiento de un paciente para el tratamiento de una lesión orofaríngea
utilizando un EPID fluoroscópico basado en cámara óptica. A la izquierda se muestra la proyección
lateral de referencia, obtenida en este caso mediante un simulador convencional, mientras que la
imagen de la derecha corresponde a la imagen portal de doble exposición adquirida por un
dispositivo basado en cámaras ópticas. (Imágenes tomadas de: Odero DO, Shimm DS. Third party EPID with
IGRT capability retrofitted onto an existing medical linear accelerator. Biomed Imaging Interv J. 2009;5: e25.)

Matriz de cámaras de ionización líquidas


Este tipo de EPID surgió en 1990, se comercializó un modelo por un único fabricante y no
se encuentra disponible en la actualidad. El dispositivo constaba de una lámina metálica,
que aumentaba la eficiencia de detección, y una matriz formada por múltiples pares de
electrodos espaciados unos milímetros cuya separación o gap estaba rellena de líquido (la
respuesta se incrementaba unas 300 veces respecto a la detección en aire). La matriz
estaba compuesta por cámaras de ionización dispuestas conforme a una rejilla, de tal
manera que los electrodos de cada cámara medían la ionización del líquido generada en
cada punto de la matriz.
La radiación atenuada por el paciente incidía sobre la plancha metálica, cuya finalidad
era aumentar la eficiencia de detección generando electrones de alta energía, además de
absorber fotones de baja energía. Los electrones emitidos por el metal interaccionaban
con el fluido y arrancaban electrones ligados de los átomos, produciendo así pares de
iones de distinta carga. Para evitar la recombinación de iones y poder colectar la carga
originada por la radiación en la cavidad, se aplicaba un voltaje o diferencia de potencial
entre ambos electrodos que generaba un campo eléctrico uniforme en el medio de
separación. El mapa o distribución de ionización bidimensional causado por la radiación
se convertía a escala de grises digitalizando la señal eléctrica registrada en cada punto
por una cámara. La figura 7-22 muestra un EPID basado en cámara de ionización líquida,
y su esquema de funcionamiento.
FIGURA 7-22 EPID basado en matriz de cámara de ionización líquida. Este sistema era retráctil y
permitía variar la distancia al foco de radiación, como se observa en la fotografía superior izquierda.
Las fotografías inferiores muestran detalles del detector. El esquema superior derecho resume el
funcionamiento de este tipo de EPID. (A tomada de: Munro P. Portal imaging technology: past, present, and
future. Semin Radiat Oncol. 1995;5:115-33, con autorización de Elsevier; C por cortesía de Diego Jurado, del Instituto
Catalán de Oncología de Gerona; D tomada de: Antonuk LE. Physics in medicine and biology, 47 2002 R31-R65, con
autorización del autor y del Institute of Physics Publishing.)

Este sistema, más compacto que los anteriores, permanecía acoplado al acelerador
mediante un brazo retráctil. Las imágenes que obtenía no presentaban distorsión
geométrica, aunque el tamaño de imagen útil era normalmente inferior al proporcionado
por los EPID basados en fluoroscopia. Precisaba mayor cantidad de radiación para
formar la imagen que otros sistemas portales, lo que repercutía en una mayor dosis de
radiación para el paciente. La figura 7-23 compara la imagen radiográfica de simulación
con su correspondiente imagen portal obtenida mediante EPID de cámaras de ionización
líquidas, para un tratamiento holocraneal.
FIGURA 7-23 Posicionamiento de un paciente para tratamiento holocraneal utilizando EPID de
matriz de cámaras de ionización líquidas. A la izquierda se muestra la imagen de referencia del
campo de tratamiento lateral, obtenida mediante simulación convencional, y la imagen derecha
corresponde a la imagen portal adquirida con el dispositivo electrónico de matriz de cámaras de
ionización líquida. En esta última imagen se representa con trazo discontinuo la proyección del
campo de tratamiento sobre la posición inicial del paciente, y con trazo continuo la proyección de
dicho campo tras corregir la posición. Comparando con la imagen de referencia de la simulación, se
observa un desplazamiento longitudinal inicial del paciente respecto al haz de tratamiento.

Matrices activas de panel plano


La matriz activa de panel plano (AMFPI, active matrix flat-panel imaging) se basa en la
tecnología de radiografía digital directa, en la cual la digitalización de la señal de rayos X
se lleva a cabo dentro del propio detector. La base de estos equipos es un detector de
gran área consistente en una matriz de transistores de película delgada (TFT, thin-film
transistors), que son dispositivos electrónicos semiconductores (fig. 7-24). Cada píxel de
este detector contiene un sensor de radiación, un condensador para almacenar la carga
eléctrica obtenida y un transistor que permite la lectura activa de la carga almacenada por
el condensador. La magnitud de la señal de carga en cada píxel se corresponde con la
intensidad del haz incidente, revelando así la imagen de la anatomía expuesta.
FIGURA 7-24 Matriz de transistores de película delgada. Constituye la base de los detectores de
matriz activa de panel plano (AMPFI). Para cada píxel, el transistor de película delgada (TFT) permite
la lectura activa de la carga eléctrica almacenada.

Actualmente existen dos tipos fundamentales de detectores planos: los denominados


directos (como los de selenio amorfo), que convierten directamente la radiación en señal
eléctrica, y los indirectos (como los de silicio amorfo), que utilizan un material centelleador
o fluorescente para convertir primero la radiación de alta energía en fotones de luz y
luego en señal eléctrica. La figura 7-25 ilustra el funcionamiento de ambos tipos de
detectores planos.

FIGURA 7-25 Esquema de funcionamiento y composición de los detectores de panel plano. La


figura de la izquierda se corresponde con un detector directo que consta de un material
semiconductor, habitualmente selenio amorfo, que transforma la radiación de rayos X en señal
eléctrica. Por el contrario, los detectores indirectos (figura de la derecha) constan de un material
centellador, como el fósforo, para convertir los fotones de rayos X en fotones visibles, de menor
energía, que generarán una señal eléctrica al interaccionar con el material semiconductor,
generalmente silicio amorfo.

El selenio amorfo (aSe) es un detector de estado sólido fotoconductor, es decir, que al


ser expuesto a radiación electromagnética de energía suficiente se producen pares
electrón-hueco. Induciendo previamente un campo eléctrico uniforme, se genera una
distribución de carga uniforme, que permite el flujo de la corriente eléctrica originada
por la radiación y altera la distribución inicial de carga. Como consecuencia, se produce
una imagen latente en forma de densidad superficial de carga. Las cargas se almacenan
en condensadores de la matriz activa durante la irradiación, para luego ser procesada. De
esta forma, los paneles que contienen selenio amorfo convierten la radiación ionizante en
señal eléctrica, que es recogida por la matriz de transistores para su digitalización.
Los paneles de silicio amorfo (aSi) tienen un aspecto externo similar al de los
anteriores (fig. 7-26), pero incluyen láminas de materiales fluorescentes o centelladores
para convertir la radiación incidente en fotones luminosos, de menor energía. El aSi es
también un material semiconductor que transforma la radiación visible en señal eléctrica
al crearse pares electrón-hueco. Cada píxel consiste en un fotodiodo de aSi conectado a
un transistor de película fina.

FIGURA 7-26 Ejemplos de modelos de EPID de paneles de silicio amorfo. (A por cortesía de Siemens
Healthcare; B por cortesía de Elekta; C por cortesía de Varian Medical System.)

Ambos diseños de matriz activa proporcionan imágenes de gran calidad, pero son los
paneles de aSi, disponibles desde el año 2000, los dispositivos EPID más extendidos en la
actualidad. Estos equipos también permiten adquirir múltiples imágenes en modo
fluoroscopia y cine, utilizando el material fluorescente que convierte fotones de alta
energía en radiación visible. Como desventaja, destaca su mayor degradación con la
radiación, que ocasiona la inutilización permanente de sensores (píxeles «muertos») o
incluso requiere la sustitución del panel de aSi por aparición de defectos.
En la figura 7-27 se muestra el posicionamiento de un paciente para un tratamiento
craneal, comparando la imagen DRR con la obtenida mediante un EPID de aSi. La
figura 7-28 compara imágenes obtenidas con distintas generaciones de EPID. La figura 7-
29 muestra imágenes portales utilizando chasis.
FIGURA 7-27 Posicionamiento de un paciente para el tratamiento de una lesión craneal utilizando
EPID de matriz activa de panel plano de silicio amorfo. La reconstrucción radiográfica digital (DRR)
del campo lateral de tratamiento (imagen de la izquierda) sirve como referencia para evaluar el
posicionamiento del paciente en dirección cráneo-caudal y anteroposterior. La imagen derecha
corresponde a la proyección de dicho campo de tratamiento, adquirida mediante un EPID de flat-
panel de silicio amorfo. Para facilitar la comparación de ambas imágenes, las aplicaciones
informáticas permiten definir marcas que ayudan a identificar estructuras anatómicas; en este caso,
los contornos verdes, delineados sobre la DRR y superpuestos en la imagen portal, revelan una
rotación respecto al eje transversal.
FIGURA 7-28 Imágenes portales obtenidas con distintos tipos de EPID. Las imágenes superiores
corresponden a dobles exposiciones laterales de cráneo adquiridas mediante EPID fluoroscópico
basado en cámara de vídeo (A), EPID de matriz de cámaras de ionización líquidas (B) y EPID de
matriz activa de panel plano de silicio amorfo (C). Las imágenes inferiores (D a G) muestran
exposiciones simples anteroposteriores de pelvis obtenidas utilizando EPID fluoroscópico, de silicio
amorfo, de cámara de ionización líquida y de silicio amorfo, respectivamente. (D y E por cortesía de Jean
Poliot y Michèle Aubin, del Departamento de Oncología Radioterápica de la Universidad de California, San Francisco.)
FIGURA 7-29 Imágenes portales obtenidas mediante las distintas tecnologías disponibles. Las
imágenes A, B, C y D corresponden a proyecciones tangenciales de tratamiento de cáncer de
mama utilizando doble exposición con película radiográfica, exposición simple con CR, exposición
simple con EPID fluoroscópico y doble exposición con EPID de panel plano de silicio amorfo,
respectivamente. Las imágenes portales de la derecha muestran proyecciones anteroposteriores
con doble exposición para tratamiento de lesiones de tórax adquiridas mediante CR (E) y EPID de
silicio amorfo (F).

4.2. Imágenes de rayos X de kV


Para poder obtener imágenes de mayor calidad, se introduce el uso de rayos X de kV
instalando equipos de radiología digital directa (principalmente flat panel de silicio
amorfo) integrados en la propia unidad de teleterapia (LMDI/OBI) o en la sala de
tratamiento de forma independiente. En ambos casos, el sistema de coordenadas del
sistema de imagen deberá estar referenciado al del equipo de teleterapia, de tal manera
que permita determinar los desplazamientos del paciente respecto al isocentro de
tratamiento.
Esta modalidad de IGRT ofrece mejor calidad que las imágenes portales, si bien
presenta menos versatilidad y su función se limita a la adquisición de proyecciones para
establecer la posición relativa del paciente respecto al isocentro de tratamiento. Puesto
que el receptor de imagen se encuentra enfrentado al tubo de rayos X, y no al haz de
teleterapia, no es posible verificar la conformación de láminas de los campos de
tratamiento, ursarlo como dosímetro, ni tampoco realizar pruebas geométricas del
acelerador. Por otro lado, las técnicas de guiado por la imagen no son excluyentes entre
sí, y es frecuente la disponibilidad tanto de imágenes de kV como de MV (mediante
EPID).

Sistemas de rayos X de kV integrados


Tanto el tubo como el receptor de rayos X forman parte del brazo del acelerador y giran
solidariamente al cabezal. Aunque existen diseños en que el sistema de rayos X está
situado de forma paralela al eje de tratamiento (con el tubo opuesto al haz de MV y el
receptor en el propio cabezal), usualmente se disponen de tal manera que ambos
componentes formen una C perpendicular al brazo del acelerador, cuando sus brazos
están extendidos. De esta forma pueden obtenerse dos proyecciones ortogonales (una de
kV y otra de MV) sin necesidad de girar el cabezal. Aunque el sistema rote de manera
solidaria al cabezal, el isocentro de radiación del sistema de rayos X no tiene por qué
coincidir con el de tratamiento; dependerá de la exactitud y la reproducibilidad del
posicionamiento de los brazos articulados al desplegarse. Esto exige un control periódico
para evaluar y corregir las posibles discrepancias entre ambos isocentros.
Algunos diseños incorporan dos sistemas de imagen (sistemas duales). En
aceleradores cuyo estativo o brazo tiene forma de anillo, es posible fijar sobre este ambos
conjuntos de tubo de rayos X y flat-panel. Este enclavamiento prescinde de los brazos
articulados, lo que minimiza la imprecisión geométrica.
La figura 7-30 ilustra diversos ejemplos de equipos de RX de kV integrados en la
unidad de tratamiento.
FIGURA 7-30 Sistemas de rayos X integrados en aceleradores lineales de electrones. Las
imágenes superiores corresponden a diseños en forma de C perpendicular al brazo de la unidad de
tratamiento, de tal manera que el haz de kV (en amarillo) es perpendicular al haz de MV (en rojo). La
fotografía inferior izquierda muestra un modelo en el cual el sistema de kV es paralelo y opuesto
al haz de MV. Por último, en el esquema inferior derecho, un acelerador lineal de electrones de
estructura en anillo incorpora un sistema dual de rayos X. (A por cortesía de Varian Medical System;
B por cortesía de Elekta; C por cortesía de Siemens Healthcare; D por cortesía de Brainlab AG.)

Sistemas de rayos X de kV externos


Son también sistemas duales, compuestos por dos sistemas de imagen estereoscópicos,
esto es, que proporcionan información 3D a partir de dos proyecciones distintas. De la
misma manera, la visión humana nos permite distinguir las tres dimensiones del
espacio: cada ojo transmite una perspectiva y se originan dos imágenes diferentes en las
retinas, que el cerebro interpreta para percibir la profundidad o distancia a los objetos
visualizados. El término «estereoscópico» procede del griego stereos (sólido o volumen) y
skopeo (ver), y puede traducirse como visión tridimensional.
Ambos sistemas de imagen se instalan en la sala de tratamiento anclados en el techo y
en el suelo, de modo que cada tubo de rayos X queda enfrentado a un panel plano y sus
proyecciones se entrecruzan en el isocentro de la unidad de tratamiento (fig. 7-31). Como
consecuencia, sólo es posible obtener imágenes en las dos proyecciones oblicuas, no
necesariamente perpendiculares, que vienen determinadas por el montaje en la sala, y su
interpretación visual es más compleja que con las habituales AP y lateral (fig. 7-32). Por el
contario, al ser fijos los componentes están sujetos a menos variaciones en su posición, lo
que proporciona una gran precisión en el posicionamiento de los pacientes. No obstante,
como todo sistema relacionado con el tratamiento de pacientes, también debe verificarse
con cierta periodicidad la correspondencia con el isocentro de la unidad de teleterapia.

FIGURA 7-31 Sistemas de rayos X de kV externos a la unidad de tratamiento. Se muestran dos


ejemplos de sistemas de imagen duales fijos. En la imagen de la izquierda, los tubos de rayos X
están anclados en el techo, mientras que en la de la derecha están situados bajo el suelo.
(A por cortesía de Accuray; B por cortesía de Brainlab AG.)
FIGURA 7-32 Proyecciones estereoscópicas obtenidas con rayos X de KV para una localización
pélvica.

En la tabla 7-1 se resumen las principales características de los sistemas de guiado por
imagen bidimensional utilizados en radioterapia.

Tabla 7-1
Características de los sistemas de IGRT basados en imagen radiológica 2D
5. Sistemas de imagen radiológica tomográfica o
volumétrica
Hasta ahora se han descrito casos de representaciones planas (2D) de la anatomía del
paciente en las que aparecen superpuestas estructuras, adquiriendo proyecciones para
distintas incidencias con el fin de conocer la posición del paciente en cada una de las tres
direcciones del espacio vertical (AP), longitudinal (cráneo-caudal) y transversal (lateral).
Esta simplificación del objeto volumétrico (3D) a localizar, en pocas proyecciones planas
conlleva cierta pérdida de información. Sin embargo, resulta complejo manejar
información volumétrica, por lo que se recurre a la tomografía, que ordena los datos por
secciones o cortes (del griego, tomos). Los tomógrafos adquieren proyecciones del
paciente para múltiples incidencias y reconstruyen cortes axiales. A partir de estos es
posible reconstruir también cortes coronales y sagitales. Tales estudios de imagen
contienen información volumétrica (3D) del paciente, representada como una sucesión
de planos (ya sean axiales, coronales o sagitales).
De igual manera que el uso de imágenes 3D en simulación supuso un gran cambio, al
contribuir a una mejor delimitación de los volúmenes de tratamiento y órganos críticos,
la adquisición de imágenes volumétricas para verificar la posición del paciente ha
resultado crucial. La visualización de cortes axiales, coronales y sagitales no sólo aporta
información sobre los desplazamientos del paciente, sino también sobre sus rotaciones,
hasta ahora sólo posible mediante proyecciones estereoscópicas. Por ejemplo, no pueden
detectarse giros del paciente respecto al eje longitudinal con las proyecciones AP y
lateral. Además, permite visualizar la posición relativa de órganos de riesgo, así como
evaluar la movilidad de estructuras y el acondicionamiento del paciente (nivel de llenado
de la vejiga y del recto, gases en intestino, etc.). Puesto que se trata de una imagen
volumétrica, es posible comparar el estudio TC de verificación con el de simulación, sin
necesidad de generar DRR por lo que se reduce la incertidumbre del proceso. De este
modo, la precisión de las correcciones calculadas por los programas informáticos ha de
ser mayor.
Los equipos de TC utilizados para IGRT varían esencialmente en la energía y la
geometría del haz empleado para la adquisición de la imagen; funcionan con haces de kV
o MV, colimados longitudinalmente en mayor o menor medida. La colimación afecta a la
calidad de imagen: cuanto mayor sea el volumen de paciente irradiado, mayor será la
contribución de la radiación dispersa que pueda llegar al receptor de imagen y degrade
su calidad. El uso de altas energías (MV) empeora el contraste, si bien reduce la aparición
de artefactos debidos a materiales de alto número atómico presentes en algunos
pacientes (como prótesis o clips quirúrgicos) (fig. 7-33).
FIGURA 7-33 Artefactos debidos a la presencia de material de alto número atómico. Las imágenes
superiores corresponden a cortes axiales del cráneo de un paciente, en los que se observa el
material radioopaco empleado en la embolización de una malformación arteriovenosa. Las
imágenes inferiores muestran cortes axiales de la pelvis de un paciente con prótesis de cadera. En
ambos casos, las imágenes de la izquierda se han adquirido mediante TC convencional de kV,
mientras que los correspondientes cortes axiales de la derecha se han obtenido utilizando un haz
también en abanico, pero de MV. En las imágenes de kVCT se observa un artefacto en forma de
estrella alternando franjas oscuras y claras que no concuerdan con la densidad real del paciente. En
las imágenes de MVCT se reduce el artefacto y proporcionan información más veraz de la
composición del paciente, aunque se aprecia mayor ruido (imagen granulada).

La mayoría de los sistemas de IGRT volumétricos visualizan el estudio TC de


simulación junto con las estructuras previamente delimitadas para el diseño del
tratamiento, lo que facilita el registro entre ambos conjuntos de imágenes. Algunos
equipos muestran, además, la distribución dosimétrica planificada correspondiente al
estudio de simulación. Esto permite valorar de manera orientativa la dosis que recibirían
tanto el volumen tumoral como los órganos de riesgo en la posición actual.
Una aplicación de estos sistemas es la estimación de la dosis de tratamiento recibida
por el paciente volcando el tratamiento planificado sobre el estudio de TC adquirido en
sala. Para ello, al igual que el estudio TC utilizado para simulación, deberá calibrarse el
equipo asignando a cada valor de unidad Hounsfield (UH) la densidad del material
correspondiente. El cálculo de la distribución de dosis sobre el estudio de TC para IGRT
obtenido a lo largo del tratamiento permite cuantificar la influencia dosimétrica de
posibles cambios en la anatomía del paciente, causados, por ejemplo, por la reducción
del volumen tumoral, la pérdida de peso del paciente o la retención de líquido. Si además
se utiliza el receptor de imagen enfrentado al haz de tratamiento como dosímetro, puede
determinarse la dosis impartida al paciente en cada sesión a partir de la señal detectada
durante cada irradiación. De este modo se obtiene un valor de dosis más real, ya que
considera posibles variaciones del haz durante el tratamiento frente al modelo ideal de
haz constante empleado en el cálculo del diseño del tratamiento.
El cálculo de la dosis suministrada al paciente en cada sesión permite considerar los
cambios dosimétricos, en lugar de centrarse exclusivamente en el posicionamiento
(IGRT), para llevar a cabo el tratamiento. Esta técnica se denomina radioterapia guiada
por dosis (DGRT, dose guided radiotherapy), e implica un proceso sumamente laborioso
difícil de adoptar como práctica sistemática en la actualidad. Requiere el desarrollo de
herramientas informáticas potentes que agilicen y simplifiquen la gran cantidad de datos
a manejar. La técnica de DGRT simplificaría la realización de la radioterapia adaptativa,
proporcionando información dosimétrica para evaluar la necesidad y la frecuencia de las
modificaciones del tratamiento.

5.1. Tomografía computarizada convencional en sala


La configuración de un sistema de IGRT de este tipo se basa en la instalación de un
equipo de TC en la sala de tratamiento, que puede desplazarse sobre raíles (CT on-rails) y
comparte mesa con la unidad de tratamiento. Para ello, la mesa gira 90° o 180° (fig. 7-34),
según la disposición del equipo TC respecto al equipo de teleterapia, para alinearse
perpendicularmente al plano de imagen del TC permitiendo que esta avance sobre los
raíles y se posicione para la adquisición de la imagen del paciente. El sistema de
coordenadas de imagen está correlacionado con el isocentro de tratamiento.

FIGURA 7-34 TC sobre raíles utilizada para comprobar el posicionamiento del paciente en la sala
de tratamiento. La imagen de la derecha muestra una disposición que requiere un giro de 180° de la
mesa de tratamiento, mientras que en la disposición de la imagen izquierda la mesa gira 90°.

Esta modalidad de guiado del posicionamiento se ideó para lograr imágenes 3D de


igual calidad que las diagnósticas, aunque requiere cierta logística en cuanto al montaje
del equipo TC en la sala (espacio suficiente), y el proceso de obtención de la imagen
conlleva además el traslado del paciente, lo que puede suponer una mayor probabilidad
de movimiento de este.
5.2. Tomografía computarizada de haz cónico
Los equipos actuales de TC en radiodiagnóstico utilizan un haz colimado en forma de
abanico, que rota de manera continua en torno al paciente a medida que este es
desplazado longitudinalmente por el movimiento, también continuo, de la mesa. Así, se
irradian cortes axiales (2D) del paciente en cada giro y se reconstruyen a partir de señales
de una matriz lineal (1D) de detectores. Sin embargo, los aceleradores lineales de
electrones convencionales no admiten movimientos longitudinales de la mesa de manera
sincronizada con el giro del cabezal, ni rotaciones sin retorno (esto es, giros que excedan
una vuelta completa). Se utiliza entonces un haz de radiación extenso, poco colimado,
que irradia toda la región a explorar rotando el cabezal no más de 360° para obtener
distintas proyecciones (2D). Debido a la geometría del haz empleado, esta técnica de
adquisición volumétrica es conocida como tomografía computarizada de haz cónico
(CBCT, cone beam computer tomography). La figura 7-35 ilustra el funcionamiento de una
TC de haz cónico en comparación con una TC de haz en abanico.

FIGURA 7-35 Esquema de funcionamiento de la TC de haz en abanico y de haz cónico. El haz en


abanico está enfrentado a un detector lineal que registra la señal atenuada al irradiar una sección
axial del paciente. En cada vuelta obtiene información correspondiente a un corte axial, por lo que el
paciente deberá desplazarse longitudinalmente respecto a la fuente de radiación para adquirir
sucesivos cortes axiales. En cambio, utilizando un haz cónico enfrentado a un detector plano puede
obtenerse información de múltiples cortes axiales en una única rotación de la fuente de radiación, sin
necesidad de desplazar al paciente.
Pueden obtenerse imágenes de CBCT tanto con sistemas EPID, irradiando con haces
de terapia (MV-CBCT), como con LMDI/OBI utilizando haces de rayos X (kV-CBCT)
(fig. 7-36). Evidentemente, la calidad de imagen de los CBCT de kV será superior que con
los CBCT de MV (energías tan altas degradan el contraste), pero inferior a la de las TC
convencionales debido a la mayor cantidad de radiación dispersa provocada por el haz
cónico frente al haz en abanico. Por otro lado, si se utiliza el haz de tratamiento es
posible determinar la distribución de dosis que recibe el paciente al realizar un estudio
MV-CBCT, utilizando el mismo software que calcula los tratamientos diseñados, que
podrá tenerse en cuenta en el cómputo total de dosis a impartir.

FIGURA 7-36 Ejemplos de distintos modelos de sistemas de IGRT basados en TC de haz cónico.
En la parte superior de la imagen se muestran aceleradores lineales de electrones que utilizan
sistemas de rayos X de kV incorporados en su estructura (kV-CBCT), mientras que los equipos que
se muestran en la parte inferior utilizan un sistema portal de MV (MV-CBCT). (A por cortesía de Elekta; B
por cortesía de Varian Medical System; C y D por cortesía de Siemens Healthcare; E por cortesía de Brainlab AG.)

También se ha contemplado como alternativa el uso de arcos quirúrgicos. Son equipos


de rayos X móviles, similares a los utilizados en angiografía, hemodinámica o
traumatología, que constan de un tubo enfrentado a un panel plano en un brazo en
forma de C (fig. 7-37). Permiten generar una imagen 3D a partir de las reconstrucciones
de las proyecciones 2D obtenidas con el haz extenso de rayos X, monitorizando la
posición del equipo de imagen mediante sensores infrarrojos.
FIGURA 7-37 Los equipos de radiología conocidos como arcos quirúrgicos son sistemas de
rayos X portátiles, dispuestos en un brazo en forma de C cuya posición es variable respecto al
pedestal. Se utilizan para adquirir imágenes en el quirófano, debido al amplio rango de movimiento
que permiten. Para su aplicación como sistema de IGRT es necesario identificar la posición del arco
quirúrgico respecto a la unidad de tratamiento, y referenciar así la imagen volumétrica obtenida a
partir de las distintas proyecciones obtenidas.

5.3. Tomografía computarizada de haz de MV en abanico


La obtención de imágenes con haces de tratamiento en abanico solamente es viable en
aceleradores con estativos en forma anular que permitan rotaciones continuas con un
avance de la mesa longitudinal sincronizado. Tal es el caso de la tomoterapia helicoidal,
diseñada por analogía a los antiguos TC helicoidales monocorte con detectores gaseosos
de xenón. Este equipo utiliza para tratamiento haces de 6 MV colimados para espesores
de corte relativamente gruesos (50, 25 y 10 mm), mientras que para la adquisición de
imagen emplea una energía y un espesor de corte menores (3,5 MV y 4 mm), lo que
mejora el contraste y reduce la radiación de dispersión al irradiar cortes axiales más
estrechos. Este sistema de imagen fue ideado con la restricción de impartir dosis
comparables a las usuales en radiodiagnóstico para permitir su uso diario. Aunque
permite discernir entre tejidos blandos, su contraste se ve limitado por la presencia de
ruido (similar a los antiguos TC de diagnóstico). Dispone de la herramienta de
visualización de distribución de dosis planificada. En la figura 7-38 se ilustra el esquema
de la unidad de tomoterapia, junto con un ejemplo de posicionamiento, para una
localización de cabeza y cuello, mostrando las imágenes de MVCT fusionadas respecto al
estudio kVCT de simulación, con las curvas de isodosis del tratamiento planificado
superpuestas.

FIGURA 7-38 Ejemplo de TC con haz de MV en abanico (MVCT). En la unidad de tomoterapia, las
imágenes se obtienen irradiando de forma helicoidal al paciente con un haz de MV de menor energía
que la utilizada en el tratamiento, y colimando únicamente en dirección longitudinal. El sistema de
IGRT permite visualizar la distribución de dosis superpuesta a la fusión de los estudios de TC. (A por
cortesía de Accuray.)

No permite adquirir imágenes durante el tratamiento, ya que utiliza una energía y una
tasa distintas a las de tratamiento, además de una velocidad de giro y un avance de la
mesa específicos para el modo de imagen y diferentes de los del tratamiento. Tampoco
puede determinarse la distribución de dosis debida a la adquisición de imagen, ya que la
energía utilizada difiere de la caracterizada en el programa de cálculo donde se diseñan
los tratamientos.
La figura 7-39 muestra imágenes volumétricas correspondientes a las distintas
modalidades disponibles, y en la tabla 7-2 se resumen sus principales características.
FIGURA 7-39 Imágenes axiales de pelvis obtenidas mediante los sistemas tomográficos más
habituales en radioterapia (CT on-rails, kV-CBCT, MVCT y MV-CBCT).

Tabla 7-2
Características de los sistemas de IGRT basados en imagen radiológica 3D
6. Sistemas basados en radiaciones no ionizantes
En los apartados anteriores se han abordado los sistemas que obtienen imágenes a partir
de radiación ionizante procedente del propio haz de tratamiento, o bien de equipos de
rayos X análogos a los empleados en radiodiagnóstico. También se han adoptado técnicas
de imagen diagnósticas no ionizantes, como la RM y la ecografía, y se han desarrollado
otras técnicas no tan frecuentes en la práctica médica, como pueden ser la radiación
infrarroja, la radiofrecuencia y las imágenes de vídeo para la localización y la
monitorización de la posición del paciente. En general, estos sistemas de rastreo
permiten conocer la posición del paciente en todo momento (incluso posicionarlo de
manera automática con alta precisión) utilizando marcadores situados habitualmente en
superficie. Esto suele requerir además la obtención de imagen para garantizar la posición
interna del volumen a tratar.
La tabla 7-3 recoge las características básicas de los sistemas de posicionamiento
guiado basados en radiaciones no ionizantes.

Tabla 7-3
Características de los sistemas de posicionamiento guiado basados en radiaciones
no ionizantes

6.1. Imagen por resonancia magnética


De manera análoga a la implementación de la TC para el guiado por la imagen, se ha
investigado el uso de imágenes obtenidas mediante RM instalando un equipo de forma
independiente en la sala de tratamiento, o integrando el sistema en equipos de
teleterapia. En este último caso, se trata de una modalidad aún en desarrollo, de la que
existen diversos prototipos (fig. 7-40). Los aceleradores lineales de electrones generan
campos magnéticos que pueden interaccionar con el campo magnético de la unidad de
imagen por RM, interfiriendo en el funcionamiento de ambos equipos. Por ello, se han
diseñado también prototipos basados en cobalto-60 que constan de dos o tres fuentes
que giran en un cabezal en forma de anillo.

FIGURA 7-40 Prototipos híbridos de teleterapia y resonancia magnética (RM). La imagen superior
muestra un diseño de RM abierta que incorpora una estructura en anillo rotatoria que permite girar
tres fuentes de cobalto-60. La imagen inferior presenta una disposición similar utilizando un
acelerador lineal de electrones capaz de rotar en torno al paciente. (A tomada de: Balter JM, Cao Y.
Advanced technologies in image-guided radiation therapy. Semin Radiat Oncol. 2007;17: 293-7; B por cortesía de J.J.W.
Lagendijk, del Departamento de Radioterapia de la Universidad de Utrecht.)

La RM proporciona imágenes tridimensionales de gran calidad que permiten


distinguir tejidos blandos. Por el contrario, la adquisición de este tipo de imágenes
supone tiempos relativamente largos que aumentan la probabilidad de movimientos del
paciente, en detrimento de la precisión de su posicionamiento. Obviando la presencia de
dispositivos no compatibles con estos equipos (como marcapasos o presencia de metales
ferromagnéticos), sus posibles efectos biológicos son de tipo térmico, con ligero aumento
de temperatura, y muy rara vez de tipo sensorial o motor, por estimulación de las fibras
nerviosas que puede provocar leves contracciones musculares o visualización de puntos
luminosos por excitación de la retina.

6.2. Imagen por ecografía


La ecografía es una técnica de imagen basada en la señal de ultrasonido reflejada (eco)
por los distintos tejidos.
Los ultrasonidos son ondas sonoras de alta frecuencia, superiores a 20 kHz, y por lo
tanto no detectables por el oído humano. A diferencia de las ondas electromagnéticas,
que pueden propagarse en el vacío, las ondas sonoras precisan un medio material
(gaseoso, líquido o sólido) que contenga partículas para su propagación (cuadro 7-1).

Cuadr o 7- 1 Eje m plos de onda s m e cá nica s y e le ct rom a gné t ica s de


dist int a int e nsida d
Ondas mecánicas
• Ondas sísmicas
• Olas del océano
• Ondas sonoras
Ondas electromagnéticas
• Rayos X, rayos gamma
• Visibles, ultravioletas
• Microondas, infrarrojos

El sonido se produce cuando un objeto vibra y provoca la vibración de las partículas


del medio en contacto, aumentando y disminuyendo la concentración de partículas en
dicho medio (lo que se conoce como compresión y rarefacción del medio, respectivamente).
Son ondas mecánicas compuestas por ciclos de altas y bajas presiones en las que el
medio por el cual se propagan sufre compresiones y dilataciones, respectivamente (fig. 7-
41). La transmisión de las ondas sonoras depende de la densidad del medio de
propagación y, en general, de sus características físicas. Este hecho permite caracterizar el
medio en función de su impedancia acústica, definida como el producto de su densidad y
la velocidad de propagación del sonido en dicho medio.
FIGURA 7-41 Las ondas sonoras se generan por la vibración de un objeto, como un diapasón, y a
su vez provocan la vibración de las partículas del medio material donde se propagan. Se producen
ciclos de alta y baja presión en el medio, que causan zonas de mayor concentración de partículas
(compresión) y zonas de menor concentración (rarefacción o enrarecimiento).

Cuando las ondas de ultrasonidos atraviesan medios no homogéneos, de distintas


composición y características físicas, se produce una reflexión parcial de haz de
ultrasonidos incidente en la superficie que separa ambos medios (parte de la energía del
haz se refleja y parte se transmite). La amplitud de la onda reflejada y el porcentaje de la
energía del haz reflejada dependen de la diferencia de las impedancias acústicas de
ambos medios (cuanto mayor sea la diferencia, mayor será la reflexión). Es un fenómeno
similar al que experimenta la luz al propagarse por medios con distinto índice de
refracción, como el agua y el aire.
El ecógrafo consta de una sonda de transducción acústica que convierte la energía
mecánica de las ondas de ultrasonido en eléctrica (efecto piezoeléctrico), y viceversa
(efecto piezoeléctrico inverso). De este modo, al aplicar un campo eléctrico al material
piezoeléctrico de la sonda, este sufre una deformación mecánica (compresiones y
dilataciones) que produce una vibración de alta frecuencia. El haz de ultrasonidos
generado por la sonda se propaga a través de los distintos tejidos biológicos y
experimenta sucesivas reflexiones parciales, o ecos, al atravesar las superficies de
separación entre medios. Las ondas de ultrasonidos reflejados que inciden en la sonda
son convertidas en señal eléctrica, cuya intensidad es proporcional a la amplitud del eco.
Las zonas de mayor eco o reflexión se visualizan como puntos de gran intensidad de
brillo, blancos, y se corresponden con tejidos como hueso o con gas, muy distintos del
agua, que supone la ausencia de eco, por lo que los líquidos aparecen representados en
negro. Los tejidos blandos producen reflexiones de intensidad intermedia y se
corresponden con tonos grises. La figura 7-42 ilustra el funcionamiento de un ecógrafo a
partir de las múltiples reflexiones que experimenta el haz de ultrasonidos incidente.

FIGURA 7-42 Las ondas sonoras son parcialmente reflejadas al cambiar de medio material de
propagación. La intensidad de la onda reflejada será mayor cuanto mayor sea la diferencia entre las
impedancias acústicas de ambos medios. La imagen ecográfica se forma a partir de los «ecos» que
experimenta el haz de ultrasonidos al atravesar distintos materiales. Como consecuencia de estas
sucesivas reflexiones, el haz de ultrasonidos se atenúa a medida que atraviesa el tejido. En los
medios acuosos, como la vejiga, se producen pocas reflexiones; esta escasez de señal o eco se
representa en valores de píxel próximos al color negro.

En radioterapia se utilizan imágenes de ultrasonidos (2D o 3D) adquiridas en la sala de


tratamiento, antes de cada sesión, comparando la localización del volumen tumoral con
el delineado originalmente en el estudio de TC de simulación. Suelen combinarse con
sistemas de infrarrojos que establecen la relación entre la posición del transductor de
ultrasonidos y el isocentro del acelerador lineal. Este tipo de guía por imagen suele ser
habitual en tratamientos de cáncer de próstata para visualizar el correcto
acondicionamiento del paciente (nivel de llenado del recto y de la vejiga) (fig. 7-43).
FIGURA 7-43 Los sistemas de ecografía utilizados para IGRT disponen de aplicaciones
informáticas que trasladan a las ecografías los contornos delimitados en la TC utilizada para diseñar
el tratamiento. Se muestran imágenes sagitales obtenidas mediante ambas modalidades,
correspondientes al tratamiento de un cáncer de próstata, en las que no sólo se identifica el volumen
a irradiar (la próstata), sino también la vejiga y el recto como órganos próximos a preservar.

La técnica ecográfica permite distinguir tejidos blandos relativamente próximos a la


ubicación de la sonda, por lo que no es válida para localizar lesiones demasiado
profundas. También precisa una gran formación y pericia del personal técnico que la
realice, para reducir la variabilidad de los resultados obtenidos entre distintos usuarios.
Se considera que los ultrasonidos de diagnóstico no causan en principio ningún efecto
negativo sobre los tejidos biológicos, si bien pueden provocar un aumento de
temperatura o efectos de cavitación (esto es, generación, oscilación o desintegración de
burbujas de gas en un fluido).

6.3. Localización por infrarrojo


Las técnicas de localización que utilizan radiación infrarroja se basan en la emisión y la
posterior recepción de una señal infrarroja (radiación electromagnética de menor
frecuencia que la luz visible). Para ello se instala en la sala de tratamiento un dispositivo
fijo emisor y receptor de infrarrojo que detectará la señal reflejada por marcadores
reflectantes colocados sobre el paciente, y con ello su posición. Por este motivo, el
sistema de infrarrojo deberá estar correctamente calibrado y referenciado respecto al
isocentro de la unidad de tratamiento.
Habitualmente, los marcadores se disponen sobre la superficie del paciente y así
permiten monitorizar su posición durante toda la sesión de tratamiento, aunque existen
modalidades en que se sitúan en una estructura fijada de manera solidaria al sistema de
inmovilización del paciente (fig. 7-44). En cualquier caso, pese a la gran precisión del
posicionamiento con este tipo de sistemas, los marcadores son referencias externas
(superficiales o no) al paciente, por lo que se complementan con imágenes que
proporcionen información anatómica interna, como proyecciones estereoscópicas de
rayos X o ecografía (fig. 7-45).

FIGURA 7-44 Dispositivos de localización por radiación infrarroja utilizados en radioterapia. La


mayoría de los sistemas de infrarrojo emplean esferas reflectantes, bien sea dispuestas en
estructuras rígidas solidarias al paciente (A, B y C) o situadas sobre la superficie del paciente (D y
E), que reflejan la señal infrarroja emitida por las cámaras. Sin embargo, la imagen F se
corresponde con sensores que emiten señal infrarroja. (F por cortesía de Accuray.)
FIGURA 7-45 Ejemplos de uso de localización por radiación infrarroja en combinación con
imágenes. En la fotografía de la izquierda, el sistema de infrarrojo se utiliza para posicionar al
paciente de manera automatizada, y su alineamiento se verifica mediante imágenes
estereoscópicas adquiridas con equipos de rayos X de kV externos. En la fotografía de la derecha, el
sistema de infrarrojo se emplea para detectar la posición de la sonda ecográfica y, por lo tanto, de
las imágenes obtenidas. (Imagen derecha por cortesía de J. Tello, del Instituto IMOR de Barcelona.)

Son sistemas que permiten la localización y la monitorización de la posición del


paciente con gran precisión, y facilitan su posicionamiento inicial y las posteriores
correcciones si se utilizan en combinación con mesas de tratamiento robóticas que
automatizan los desplazamientos. La localización por infrarrojo se usa en tratamientos
que requieren una gran precisión en el posicionamiento o un rastreo continuo de la
posición del paciente, tales como las irradiaciones con control del movimiento
respiratorio. Dada la baja frecuencia de la radiación infrarroja, su poder de penetración
es escaso, por lo que sus efectos biológicos (posible aumento de la temperatura en la piel
y la retina) resultan despreciables.

6.4. Localización por radiofrecuencia


Este sistema emplea emisores y receptores de radiofrecuencia (radiación
electromagnética de frecuencia inferior a las microondas). Aplicando tecnología de
telecomunicaciones similar a la de la localización mediante GPS (global positioning
system), utiliza pequeños transpondedores (transponders, de la fusión de las palabras
inglesas transmitter y responder, que significan transmisor y contestador). Estos dispositivos
emiten ondas de radiofrecuencia.
Se implantan radioemisores de reducido tamaño (8 mm de longitud) en el volumen de
tratamiento, cuya señal es captada por un detector formado por una matriz de antenas de
radiofrecuencia situada sobre el paciente, lo que permite el rastreo en tiempo real de las
variaciones de posición de los transpondedores. El detector tiene unos marcadores
ópticos en su superficie para determinar su posición por medio de tres cámaras de
infrarrojo fijas en la sala de tratamiento. Conociendo la posición y la orientación del
detector, puede determinarse la posición de los transpondedores dentro del paciente
respecto al isocentro de la máquina. Al colocar al paciente en la mesa de tratamiento se
compara la posición de los marcadores internos con la que tenían en el momento de la
planificación, para calcular las desviaciones existentes en las tres dimensiones del
espacio. Durante el tratamiento, el detector se mantiene fijo y la posición de los
marcadores internos se controla de forma continua. La figura 7-46 muestra su
funcionamiento.

FIGURA 7-46 Sistema de localización por radiofrecuencia. La antena situada sobre el paciente
recibe la señal de radiofrecuencia emitida por los transpondedores implantados en la lesión a tratar,
y de esta forma detecta su posición. Las cámaras de infrarrojo determinan a su vez la posición de la
antena, mediante unos reflectantes en su superficie, respecto al isocentro de la unidad de
tratamiento. (Imagen por cortesía de Varian Medical System.)

Este método suele utilizarse en tratamientos de próstata. No necesita guiado por la


imagen, puesto que los marcadores se implantan en el volumen de tratamiento y es poco
probable la migración de los transpondedores durante el tratamientomxf. Como
desventaja, es un método invasivo que requiere la implantación previa de los
radioemisores. El efecto biológico debido al uso de radiofrecuencia es despreciable.

6.5. Imagen por cámara de vídeo


La cámara de vídeo es un transductor óptico que adquiere imágenes convirtiendo la luz
que recibe en señal eléctrica o señal de vídeo. Basándose también en la visión
estereoscópica, se han diseñado sistemas que, a partir de las imágenes adquiridas por
dos cámaras no alineadas, obtienen imágenes 3D de la superficie del paciente y son
capaces de detectar variaciones de posicionamiento por comparación con la imagen
utilizada para la planificación del tratamiento (fig. 7-47).

FIGURA 7-47 Sistema de posicionamiento guiado mediante cámara de vídeo. El proyector situado
sobre la línea media ilumina la superficie del paciente y permite que las cámaras de vídeo situadas a
ambos lados registren imágenes 2D de dicha superficie. A partir de estas proyecciones
estereoscópicas (no alineadas) se obtiene una imagen 3D de la superficie del paciente que sirve
para establecer su posición en la unidad de tratamiento. (Imágenes por cortesía de Visionrt.)

Salvo en caso de lesiones superficiales, precisa la adquisición de imágenes de la


anatomía interna del paciente, y permite la monitorización de la colocación del paciente
durante cada sesión de tratamiento.
7. Resumen
• Es necesario garantizar que el paciente está situado en la sala de tratamiento de
acuerdo con las condiciones de simulación, según las cuales se ha diseñado el
tratamiento, para la correcta administración de la dosis de radiación prescrita.
• Los marcadores o referencias externas al paciente no siempre son representativos de la
posición de sus órganos internos.
• La localización del volumen de tratamiento está sujeta a imprecisiones que obligan a
expandir la zona a irradiar, aplicando unos márgenes de seguridad.
• La adquisición de imágenes en la sala de tratamiento permite reducir los márgenes de
seguridad sin que se vea afectada la irradiación del volumen tumoral, preservando en
mayor medida el tejido sano circundante.
• Existe una gran variedad de dispositivos para obtener imágenes en la sala de
tratamiento. La mayoría de ellos emplea radiaciones ionizantes.
• Pueden adquirirse imágenes 2D con haces ionizantes mediante:
• Imágenes portales, utilizando el haz de tratamiento de MV y:
– Película radiográfica.
– Radiografía computarizada (CR).
– EPID, dispositivos electrónicos portales basados en: fluoroscopia y cámara óptica;
matriz de cámara de ionización líquida, y matriz activa de panel plano (aSi,
principalmente).
• Radiografía directa con flat-panel, utilizando rayos X de kV:
– Solidarios al acelerador (LMDI/OBI).
– Sistemas duales estereoscópicos independientes.
• Pueden adquirirse imágenes 3D con haces ionizantes mediante:
• TC de radiodiagnóstico en la sala de tratamiento (CT-on-rails).
• TC con haz de geometría cónica (CBCT), utilizando:
– EPID (MV-CBCT).
– LMDI/OBI (kV-CBCT).
• TC con haz en abanico con haces de MV (MVCT).
• Las modalidades de posicionamiento guiado que no usan radiaciones ionizantes son:
• La RM en sala (unidades híbridas en desarrollo).
• La ecografía (formación de imagen a partir de ecos de ultrasonidos).
• La localización mediante señal infrarroja o radiofrecuencia.
• La reconstrucción de superficie mediante visión estereoscópica de cámaras de vídeo.
Bibliografía
AAPM Task Group 104. The role of in-room kV X-ray imaging for patient setup and target localization. AAPM; 2009.
Brosed A, Radiodiagnósitco: bases físicas, equipos y control de calidad. Fundamentos de física médica, Vol. 2 Madrid:
ADI; 2012.
Brosed A, Radioterapia externa I. Bases físicas, equipos, determinación de la dosis absorbida y programa de garantía de
calidad. Fundamentos de física médica, Vol. 3 Madrid: ADI; 2012.
Bushong SC. Manual de radiología para técnicos. 9ª ed. Madrid: Elsevier Mosby; 2010.
Herman MG, Balter JM, Jaffray DA, McGee KP, Munro P, Shalev S, et al. Clinical use of electronic portal imaging: report
of AAPM Radiation Therapy Committee Task Group 58. Med Phys. 2001;28:712–737.
Jarry G, Verhaegen F. Electron beam treatment verification using measured and Monte Carlo predicted portal images.
Phys Med Biol. 2005;50:4977–4994.
Kim S, Suh TS. Imaging in radiation therapy. Nuclear Engineering and Technology. 2006;38:327–342.
Kirby MC, Glendinning AG. Developments in electronic portal imaging systems. Br J Radiol. 2006;79:S50–65.
Kron T, Eyles D, John SL, Battista J. Magnetic resonance imagingfor adaptive cobalt tomotherapy: a proposal. J Med Phys.
2006;31:242–254.
Lizuain MC. Recomendaciones para el control de calidad de equipos y técnicas de radioterapia guiada por la imagen (IGRT).
Madrid: ADI; 2013.
Murphy MJ, Balter JM, Balter S, BenComo JA, Das IJ, Jiagn SB, et al. The management of imaging dose during image-
guided radiotherapy: report of the AAPM Task Group 75. Med Phys. 2007;34:4041–4063.
Podgorsak EB. Radiation oncology physics: a handbook for teachers and students. Vienna: IAEA; 2005.
Verellen D, De Ridder M, Linthout N, Tournel K, Soete G, Storme G. Innovations in image-guided radiotherapy. Nat Rev
Cancer. 2007;7:949–960.
C AP Í T U L O 8
Informática y comunicaciones
Alberto Sánchez-Reyes Fernández

Manuel Tudanca Hernández

ÍNDICE
1. Introducción 112
2. Infraestructura informática en los departamentos de radioterapia: organización y
proceso radioterápico 112
2.1. Equipos informáticos 112
2.2. Componentes fundamentales de un ordenador 114
2.3. Topología de las redes 115
2.4. Internet e Intranet 116
2.5. Proceso radioterápico 117
2.6. ¿Hacia un proceso sin papeles? 119
3. Comunicaciones, computación y ordenadores en los departamentos de
radioterapia. 119
3.1. Introducción histórica 119
3.2. Redes de radioterapia comerciales en la
actualidad 121
3.3. Lenguaje de las comunicaciones: el estándar
DICOM 123
4. La red radioterápica y su conexión e integración con HIS, PACS Y RIS: niveles de
integración y problemas 125
4.1. Sistemas informáticos generales o HIS 125
4.2. Sistemas informáticos RIS 127
4.3. Sistemas informáticos PACS 127
4.4. Integración con los servicios de radioterapia 128
5. Resumen 129
Bibliografía 129
1. Introducción
En los últimos 20 años, el extraordinario auge de la informática ha permitido desarrollos
tecnológicos trascendentales al servicio de la precisión en los tratamientos
radioterápicos: en la obtención de imágenes en tres dimensiones, en los sistemas de
planificación y en las unidades de irradiación. Así, en menos de dos décadas se ha
pasado de la radioterapia en dos dimensiones (RT 2D) a la radioterapia conformada en
3D (RTC3D), a la modulación de la intensidad de la radiación para la máxima
conformación (IMRT, intensity-modulated radiotherapy) y a la introducción de la
radioterapia volumétrica (VMAT, volumetric modulated arc therapy). Todos estos avances se
han debido principalmente a la introducción masiva de potentes ordenadores en la
gestión y el funcionamiento de las unidades de radiación, y en la conectividad con los
servicios de radiodiagnóstico con el fin de utilizar toda la amplia gama de pruebas
diagnósticas aplicables en tratamientos de radioterapia (resonancia magnética [RM],
tomografía computarizada [TC], tomografía por emisión de positrones [PET], etc.).
La gestión de la masiva información que hoy es necesaria en un tratamiento estándar
de radioterapia comporta la implementación de redes informáticas específicas, con el
problema que conlleva respecto a conectividad e intercambio de información entre ellas.
Todo esto implica una alta precisión en la entrega de la radiación ajustada a la dosis
prescrita al volumen blanco, preservando mejor los tejidos sanos adyacentes, de manera
que puede aspirarse a mejorar el índice terapéutico en dos sentidos: disminuyendo la
toxicidad tardía cuando esta es un problema de suficiente entidad, o escalando la dosis
en el volumen blanco para aumentar el control tumoral sin provocar más toxicidad en los
tejidos adyacentes.
2. Infraestructura informática en los departamentos
de radioterapia: organización y proceso
radioterápico
2.1. Equipos informáticos
Antes de introducir cualquier noción de red informática, es necesario conocer y saber
describir de una forma somera los distintos elementos físicos que componen un
ordenador y la función que realiza cada uno de ellos, así como alguno de los programas
que hacen posible que los ordenadores realicen las tareas para las que han sido
diseñados y programados. Los ordenadores pueden subdividirse groseramente en tres
tipos en función de su velocidad de cálculo, capacidad de almacenamiento y aplicaciones:
microordenadores (ordenadores personales), miniordenadores (servidores) y
superordenadores (fig. 8-1)

FIGURA 8-1 Tipos de ordenadores.

Así pues, podemos empezar por la definición de la palabra «ordenador», que sería un
aparato electrónico que recibe datos y los procesa mediante operaciones aritméticas o
lógicas gracias a un programa almacenado en una memoria, y cuyos resultados son
visualizados o exportados a un periférico acoplado a él. A pesar de que los ordenadores
actuales no se parecen en casi nada a los de las primeras generaciones, su esquema de
funcionamiento sigue siendo el mismo que hace 40 años: a través de distintos
dispositivos de entrada introducimos los datos en la memoria del ordenador, y una vez
en la memoria, el microprocesador realiza algún proceso y produce un resultado por los
dispositivos de salida. Este esquema se repite invariablemente. Veamos un ejemplo:
escribimos una carta con un editor de textos utilizando el teclado como dispositivo de
entrada, realizamos procesos con el texto y finalmente imprimimos en una impresora
como dispositivo de salida. El esquema funcional básico queda como el que aparece en la
figura 8-2.

FIGURA 8-2 Esquema básico de un ordenador.

Llamamos «periféricos» tanto a los dispositivos de entrada como a los de salida.


Ciertos periféricos son exclusivamente de entrada (teclado) o de salida (impresora); otros
(discos) pueden funcionar como dispositivos de entrada (los datos están guardados en el
disco) y como dispositivos de salida (guardamos los datos en el disco).
Podemos simplificar aún más el esquema de un ordenador definiendo dos únicos
bloques: los periféricos y la unidad central de proceso (CPU, central processing unit). En la
CPU se encuentran la memoria principal y el microprocesador integrados en una placa
base (es decir, el corazón y el cerebro del ordenador). El microprocesador es el circuito
más importante de la máquina, puesto que es el que interpreta, ejecuta y procesa los
datos que se encuentren en la memoria principal. Esta última tendrá por finalidad
almacenar los datos que son procesados por el microprocesador. El resto de los
dispositivos (teclado, discos, pantalla, ratón, etc.) son los periféricos
Los microordenadores son los ordenadores más simples y sencillos, y se basan en una
CPU integrada en un único chip. Su utilidad es la de ordenador personal y control de
procesos y aplicaciones no excesivamente complejas en la industria. Puede utilizarse para
una única función y por una sola persona, o como parte integrante de la red.
Actualmente su velocidad de cálculo suele ser del orden del gigabyte (GB), con memorias
RAM (random access memory) del orden de 4 GB y memorias de almacenaje del terabyte
(TB). Estas características son muy cambiantes, ya que desde hace más de 40 años viene
cumpliéndose la llamada ley de Moore, que dice que aproximadamente cada 18 meses se
duplica el número de transistores en un circuito integrado y, por tanto, su capacidad de
cálculo. Se trata de una ley empírica, formulada por Gordon E. Moore, cofundador de
Intel, el 19 de abril de 1965, cuyo cumplimiento ha podido constatarse hasta hoy.
El miniordenador tiene una respuesta de CPU más rápida (del orden de cientos de GB)
que el ordenador personal, así como mayor capacidad de memoria y de almacenamiento
de datos. Trabaja normalmente con varios programas en paralelo o simultáneamente, y
puede ser manejado por diferentes usuarios a la vez. Su nombre común es el de
«servidor», y se utiliza para administrar redes informáticas.
El superordenador está diseñado para poder realizar aplicaciones donde se procesan
operaciones matemáticas muy complejas. Posee una elevada capacidad de
almacenamiento y memoria, así como una gran velocidad en el procesamiento de datos.
Estos ordenadores se utilizan en centros de supercomputación para resolver problemas
complejos en física, biología, química, etc.

2.2. Componentes fundamentales de un ordenador


Los componentes pueden resumirse en dos tipos: el hadware y el software.

Hardware
El término hardware se utiliza para referirse a los componentes físicos que constituyen el
ordenador e incluye todos los componentes mecánicos y electrónicos que realizan el
trabajo de computación. Simplificando, podemos decir que el hardware consta de dos
partes: la CPU y las unidades periféricas de entrada y salida por las que el procesador de
datos se comunica con el exterior.
La CPU es en realidad el microprocesador, verdadero corazón del sistema, donde se
trata la información que va a ser procesada. La CPU realiza los cálculos y ordena toda la
circulación de los datos entre los diversos componentes del ordenador (fig. 8-3).
FIGURA 8-3 Placa base donde está insertada la CPU.

Así mismo, la CPU puede dividirse en tres sectores que realizan tareas distintas:
1. Unidad de control que se encarga de coordinar las funciones que realiza el ordenador.
Su tarea es recoger de la memoria la información y enviarla a la unidad aritmética lógica
para su procesamiento. Dependiendo del tipo de ordenador, la unidad de control realiza
su tarea en tiempos del microsegundo al nanosegundo (reloj de gigahercios [GHz], de
terahercios [THz], etc.).
2. Unidad aritmética lógica (ALU, arithmetic logic unit), cuya tarea es realizar todos los
cálculos, comparaciones y operaciones lógicas, y cuyo lenguaje es puramente binario.
3. Unidad de memoria central, externa a la CPU, en la que se almacenan los datos y las
instrucciones de programa, así como datos intermedios y finales de las operaciones
realizadas. Esta memoria, a su vez, se divide en memoria RAM y memoria ROM (read-
only memory). La memoria de acceso aleatorio o RAM es la memoria volátil o dinámica
que utiliza el ordenador para almacenar la información con la que trabaja en ese
momento. Dicha información se pierde en caso de que se interrumpa el suministro de
potencia del ordenador. Por contra, la memoria de solo lectura o ROM es aquella que
viene grabada de fábrica y que no podemos modificar ni borrar, ya que sirve para la
puesta en marcha del ordenador. Esta información nunca desaparece cuando apagamos
el ordenador (BIOS [basic input/output system], etc.).
La evolución de las CPU ha sido sorprendente en los últimos años, y cada vez son más
veloces y más pequeñas.
Las unidades periféricas permiten la comunicación del ordenador con el exterior, tanto
para recibir como para suministrar información. Así, se define como periférico cualquier
dispositivo para la entrada o la salida de datos en cualquier formato, ya sea electrónico
(ficheros, imágenes, etc.), gráficos de pantalla, impresiones en papel, etc. Los principales
son los monitores de vídeo o pantallas planas (LCD [liquid crystal display], LED [light-
emitting diode], etc.) (antiguamente pantallas CRT [cathode ray tube]), las impresoras, las
tarjetas de comunicaciones, los discos de almacenamiento y cualquier otro dispositivo
acoplado al ordenador.

Software
El software es el conjunto de programas y codificaciones necesarias para que el ordenador
realice el trabajo que se le ha asignado. Un programa de ordenador es un conjunto de
instrucciones y datos destinados para que el ordenador realice unas tareas concretas.
Estos programas podemos dividirlos, en función de sus aplicaciones, de la siguiente
manera:
• Sistema operativo o conjunto de programas que sirve de ayuda para usar el ordenador y
sus dispositivos periféricos. Con el sistema operativo se controlan la entrada y la salida
de datos, el uso de periféricos, la gestión y la información de los archivos, la prioridad
de procesamiento y la información almacenada en la memoria. Los más conocidos son
Windows, Linux y Unix.
• Programas de aplicación o conjunto de programas que permiten realizar tareas
específicas, como procesadores de texto, bases de datos, hojas de cálculo, programas
de gráficos, programas de investigación y un gran número de aplicaciones que se han
venido desarrollando y siguen desarrollándose de manera continua.
Todos los programas están escritos en un lenguaje de programación determinado que
después, para que la CPU pueda interpretarlos, se traduce a un lenguaje máquina
mediante un compilador o intérprete. Podemos destacar como principales lenguajes de
programación el BASIC, el COBOL, el FORTRAN, el C++, el PASCAL, el JAVA, etc.

2.3.. Topología de las redes


Debido a la gran cantidad de información que se maneja y procesa en cualquier actividad
moderna, es necesario en todo proceso, ya sea industrial, administrativo o de servicios,
poder disponer de una infraestructura de comunicaciones capaz de transportar la
información rápidamente a través de todos los usuarios y adaptarse a las necesidades de
gestión de la información. Los sistemas informáticos que permiten y garantizan este
proceso se llaman redes.
La arquitectura o configuración de una red es fundamental, ya que condiciona su
rendimiento y flexibilidad. La red ha de administrar datos y gestionar tanto la lógica de la
aplicación como la de la presentación.
Existen diversos modelos de configuraciones:
• Arquitectura centralizada: los usuarios utilizan terminales no inteligentes (llamados
esclavos) que se comunican constantemente con un ordenador central o host (fig. 8-4).
Todo el procesamiento se realiza en el host, y los usuarios únicamente dan órdenes a
través de sus ordenadores para que trabaje el ordenador central. Las principales
ventajas de esta arquitectura son las buenas integración y comunicación, así como el
buen control sobre los datos. Como inconveniente destaca la dificultad de
modificación o actualización de sus características o prestaciones, la servidumbre a un
único proveedor, la complejidad, su alto coste, y la dificultad de instalación.
• Arquitectura cliente-servidor: define una relación entre el usuario de una estación de
trabajo cliente y un servidor de archivos, impresión, comunicaciones u otro tipo de
sistema proveedor de servicios (fig. 8-5). El cliente es un sistema inteligente con su
propia capacidad de procesamiento. La relación entre ordenadores consiste en una
secuencia de llamadas seguidas de respuestas. Utilizar este tipo de arquitectura tiene
muchas ventajas, ya que es muy sencillo el mantenimiento y el control de seguridad de
los servidores. Resulta también muy simple el proceso de realizar copias de seguridad
o backups. Otras ventajas son la adaptabilidad a los usuarios, los bajos costes iniciales,
la rapidez de desarrollo, la facilidad de su instalación y la simplicidad de realizar la
comunicación a través de las plataformas instaladas. Sin embargo, los inconvenientes
principales son que puede haber redundancia en la información y un riesgo de
inconsistencia de los datos.
• Arquitectura distribuida: se define como la integración de varias arquitecturas cliente-
servidor donde las aplicaciones y los datos pueden estar distribuidos en más de un
servidor, y que a su vez permite el trabajo cooperativo de toda la red. La división de
recursos hace posible que se reduzca de una forma considerable el flujo de
información por la red (fig. 8-6). Este tipo de arquitectura es la utilizada en entornos
sanitarios, principalmente en radiodiagnóstico, ya que permite recibir y manipular
imágenes rápidamente, almacenadas en diferentes servidores.

FIGURA 8-4 Configuración centralizada.


FIGURA 8-5 Arquitectura cliente-servidor.

FIGURA 8-6 Arquitectura distribuida

Los objetivos de las arquitecturas de la red tipo distribuida que podemos enumerar
son:
1. Mayor disponibilidad de la red: mejorar la eficiencia operativa y los tiempos de
respuesta.
2. Reducción de costes: uno de los motivos principales para la gestión de una red.
3. Reducir atascos en la red: la administración de la red puede realizarse desde un único
centro y así se controlan más fácilmente sus tareas.
4. Incrementar la integración y la flexibilidad de las operaciones.
5. Mejorar la eficiencia.
6. Facilitar su uso.

2.4. Internet e Intranet


Las tecnologías de la información y la comunicación han supuesto un gran avance en los
sistemas de salud durante las últimas décadas. Pueden distinguirse claramente dos
ramas distintas en este desarrollo: por un lado, los sistemas de información que
constituyen la base de las organizaciones, y entre ellas de la planificación sanitaria
moderna, y por otro lado Internet como tecnología clave de comunicación del conjunto
de la sociedad.
Si abordamos los sistemas de información, su evolución podría resumirse en las
siguientes líneas de actuación:
• Transformación de los sistemas de comunicación basados en papel a sistemas basados
en el procesamiento y el almacenamiento de información en archivos informáticos.
• Expansión e interconexión de los sistemas de información de un nivel inicial local y
departamental hacia sistemas de información hospitalarios, interhospitalarios y
globales.
• Los pacientes y los proveedores de servicios sanitarios se convierten así mismo en
usuarios de los sistemas de información.
• La información se aplica tanto para el cuidado de los pacientes como para la gestión, la
planificación y la investigación.
• La tecnología ha perdido peso frente a aspectos de gestión administrativa y estrategia
de información.
• Se ha producido un aumento de complejidad en la información compartida; no sólo se
comparten ficheros, sino también imágenes, datos complejos, planificaciones, etc.
• Los sistemas informáticos sirven también para monitorizar a pacientes fuera de las
unidades asistenciales.
Analizando los anteriores aspectos se deduce, por tanto, que un sistema hospitalario
ha de disponer de dos sistemas de comunicación diferentes: uno para comunicarse con el
exterior (Internet) y otro para comunicarse internamente (Intranet) (fig. 8-7).
FIGURA 8-7 Esquema de red de una empresa.

Los retos que plantea Internet como espacio de la información están relacionados con
las necesidades de búsqueda de los usuarios, con la pertinencia y el uso de la
información, con la calidad de los contenidos y con las prestaciones a distancia de la
unidad asistencial. También Internet es muy útil para la práctica médica. En este sentido,
la telemedicina y la teleasistencia son buenos ejemplos de la utilidad de la red en la
asistencia sanitaria.
Mientras que Internet es la salida al exterior, Intranet es una red privada interna de
cada compañía, empresa, etc., construida utilizando unos protocolos. La familia de
protocolos de Internet es un conjunto de protocolos de red en los que se basa Internet y
que permiten la transmisión de datos entre computadoras. En ocasiones se le denomina
conjunto de protocolos TCP/IP, en referencia a los dos más importantes que la
componen: el protocolo de control de transmisión (TCP, transmission control protocol) y el
protocolo de Internet (IP, Internet protocol), que fueron dos de los primeros en definirse y
que son los más utilizados de la familia. Existen tantos protocolos en este conjunto que
llegan a ser más de 100 diferentes, entre ellos el popular HTTP (hypertext transfer
protocol), que es el que se utiliza para acceder a las páginas web, además de otros como el
ARP (address resolution protocol) para la resolución de direcciones, el FTP (file transfer
protocol) para transferencia de archivos, el SMTP (simple mail transfer protocol) y el POP
(post office protocol) para correo electrónico, y TELNET (teletype network) para acceder a
equipos remotos, entre otros.
El TCP/IP es la base de Internet y sirve para enlazar computadoras que utilizan
diferentes sistemas operativos, incluyendo ordenadores personales, minicomputadoras y
computadoras centrales sobre redes de área local (LAN, local area network) y área extensa
(WAN, wide area network).
El TCP/IP fue desarrollado y demostrado por primera vez en 1972 por el Departamento
de Defensa de los Estados Unidos, ejecutándolo en ARPANET, una red de área extensa
de dicho departamento.
Esta red (Intranet) puede componerse a su vez de un número de redes dentro de la
empresa que se comunican también mediante los mismos protocolos TCP/IP. Estas redes
separadas se conocen comúnmente como subredes, y su software permite a la gente
comunicarse por correo electrónico (e-mail) y tablones de mensajes públicos, y colaborar
en la producción usando software de grupos de trabajo. Las aplicaciones permiten a los
distintos departamentos enviar información, y a los empleados rellenar los formularios
de empresa y utilizar la información corporativa. Intranet permite a las empresas llevar a
cabo transacciones de negocio a negocio, como hacer pedidos, enviar facturas y efectuar
pagos.
Por ultimo hay que señalar que toda comunicación que fluya tanto hacia el exterior
como al interior debe ser controlada y analizada por los llamados cortafuegos (firewalls),
que bloquean el enlace a determinadas informaciones y páginas web, así como la
conexión a las redes internas y a programas o usuarios no autorizados. Esta es la forma
en que puede protegerse la información siempre delicada y se preserva la seguridad de
los sistemas informáticos.

2.5. Proceso radioterápico


Se trata de un procedimiento complejo que integra diferentes etapas (fig. 8-8):
• Indicación terapéutica.
• Intención del tratamiento
• Sistemas de inmovilización.
• Simulación, TC.
• Planificación, dosimetría y elección del equipo.
• Verificación.
• Puesta e inicio del tratamiento.
• Control semanal de la evolución, la respuesta y los efectos secundarios.
• Seguimiento.
FIGURA 8-8 Decisión terapéutica en radioterapia.

La decisión terapéutica y la indicación del tratamiento son el momento más


importante en la evolución de la enfermedad de un paciente oncológico. Si el
planteamiento y la indicación terapéutica inicial son erróneos, las perspectivas de
curación disminuyen considerablemente. El papel del oncólogo radioterapeuta es sentar
la indicación y el momento de realizar el tratamiento radioterápico, así como su
imbricación con el resto de las terapéuticas oncológicas.
El manejo adecuado de la enfermedad tumoral es multidisciplinario y en la mayoría de
los tratamientos intervienen diferentes especialistas, en comités de tumores, como una
plataforma de discusión y coordinación de la actitud y la secuencia de las acciones
encaminadas a controlar la patología tumoral. En ellos participan especialistas básicos
(analistas, radiólogos, anatomopatólogos, etc.), cirujanos de la especialidad que
corresponda (urólogos, cirujanos generales, especialistas en otorrinolaringología,
neurocirujanos, traumatólogos etc.) y sus clínicos homónimos (nefrólogos, especialistas
en aparato digestivo, neurólogos, etc.), y por último especialistas en oncología
radioterápica y oncología médica. Primero se elabora un protocolo de actuación ante las
distintas patologías tumorales, de obligada aplicación, y a su criterio se someten todos
los pacientes que padezcan esa patología tumoral. Todo esto va encaminado a que no se
tomen decisiones terapéuticas unilaterales.
El objetivo de la irradiación debe ser la erradicación completa del tumor con la menor
toxicidad posible. En el caso de no poder producir la curación completa de la
enfermedad, su finalidad es intentar mejorar la calidad de vida del paciente oncológico.
La histología del tumor, el tamaño y sus posibilidades de diseminación son los que van a
definir el tipo de irradiación y la dosis a administrar. Antes de planificar el tratamiento
con radioterapia es necesario realizar una evaluación clínica del paciente. Su situación
general y los tratamientos recibidos previamente, así como sus complicaciones, son
factores importantes a la hora de establecer un plan de tratamiento.
A pesar de que la duración de cada sesión de radioterapia es de escasos minutos, es
fundamental que el paciente mantenga la misma posición durante la irradiación. Para
conseguirlo se utilizan colchones de vacío, máscaras de material termoplástico, y moldes
de escayola o de material termoplástico. Con todo ello se asegura la correcta colocación y
la reproducción exacta del tratamiento cada día.
Una vez que el paciente está inmovilizado, con la simulación real o virtual, se localizan
las áreas anatómicas mediante radiología simple o TC. Es necesario poder reproducir las
condiciones de los equipos de tratamiento, como la distancia del foco de radiación a la
piel, los grados de rotación de los componentes (brazo, cabezal, etc.), los giros y las
alturas de la mesa, el tamaño y la incidencia de los campos, así como los factores de
magnificación de las placas obtenidas. Tras delimitar el volumen de tratamiento se
realizan unas marcas cutáneas que determinan el reposicionamiento diario.
Es necesario un conocimiento extenso sobre las energías de que se dispone, la dosis
adecuada para cada tipo histológico de tumor, el fraccionamiento más conveniente, las
dosis límite que pueden recibir los distintos tejidos y órganos sanos a incluir, y las
ventajas y los inconvenientes de los tratamientos simultáneos a la irradiación.
La planificación es el conjunto de procesos por el que se logra administrar la dosis
deseada al volumen blanco planificado. Estos procesos requieren la colaboración de
varias categorías profesionales: médicos especialistas en oncología radioterápica,
especialistas en radiofísica, enfermeros y técnicos de radioterapia.
La planificación de cada tratamiento radioterápico requiere la estrecha colaboración
con los especialistas en radiofísica médica. Usando potentes equipos informáticos
(planificadores) y manejando todas las imágenes y datos del paciente, se diseñan los
volúmenes definitivos a incluir y se deciden el equipo a utilizar, las energías, las
incidencias y las modificaciones de los volúmenes a lo largo del tiempo de tratamiento.
En él se obtienen imágenes espaciales del contorno del paciente, el tumor, los órganos
sanos y las regiones ganglionares accesorias. Con la prescripción de dosis y el
fraccionamiento elegido según el tipo de tumor de que se trate, el radiofísico realiza la
dosimetría clínica y define los campos de tratamiento para una mejor delimitación del
volumen tumoral. Todas las energías y los accesorios disponibles en las unidades de
tratamiento están previstos en el planificador (colimadores simples o multilámina,
moldes, cuñas, movimientos de mesa y gantry, etc.). La elección de la energía y de los
accesorios necesarios depende de la localización de la lesión (tamaño, profundidad y
relación con órganos vecinos).
En la definición del volumen de tratamiento se siguen las indicaciones de la
International Commission on Radiation Units and Measurements (ICRU), en las que se
distinguen varios volúmenes.
Con la dosimetría se describen la dosis que recibe el tumor y la dosis que reciben los
órganos incluidos o contiguos al campo. Cuando el facultativo decide que la dosimetría
es correcta, todo el proceso se remite a la unidad de tratamiento para comenzar la
terapia. En muchos servicios se dispone actualmente de una red informática interna que
permite que el envío de los datos entre los planificadores y las unidades se haga de forma
automática. Es imprescindible que la técnica de irradiación y los aditamentos necesarios
queden minuciosamente recogidos en la ficha de tratamiento del paciente.
El primer día se produce la puesta en tratamiento del paciente y se verifican todos los
datos de la planificación. Durante todo el tratamiento se estudian los posibles síntomas
que pueden surgir debido a la irradiación y debe comprobarse que son los esperados
para ese tipo de tratamiento.
Como hemos visto, la complejidad del tratamiento exige una precisión absoluta, y de
ahí la necesidad de la existencia de una red compleja informática que permita la
realización con la máxima seguridad de los pasos anteriormente expuestos. Así, para
para la indicación terapéutica y la intención del tratamiento necesitamos un registro
informático de almacenamiento y consulta. Si utilizamos TC en la simulación deberemos
adquirir y registrar las imágenes mediante un sistema informatizado; si necesitamos
imágenes complementarias de RM, PET, etc., necesitaremos una conexión con el PACS
(picture archiving and comunications system) que las almacena. Dichas imágenes se
transfieren al planificador y, una vez aceptada la dosimetría, el plan de tratamiento se
exporta a las unidades de radiación mediante una red local de ordenadores conectados
entre sí. Por tanto, sin una red informática que permita gestionar toda la información del
tratamiento es imposible realizar actualmente un tratamiento moderno de radioterapia.

2.6. ¿Hacia un proceso sin papeles?


Hemos visto en los apartados anteriores que la información que se transmite en un
servicio de radioterapia ha crecido de manera exponencial durante los últimos años. La
transferencia de imágenes, las planificaciones, los datos de tratamiento y el seguimiento
de los pacientes han revolucionado el quehacer diario de estos servicios.
Hoy en día es inimaginable el funcionamiento de los servicios de radioterapia sin una
red que pueda absorber y distribuir toda esta información. Todos los despachos, lugares
de trabajo, consolas de tratamiento y cualquier lugar habitual de trabajo de los
profesionales de radiofísica o radioterapia disponen de los necesarios recursos
informáticos para poder acceder a la ingente información necesaria en el día a día del
tratamiento del paciente. Es por esto que podemos plantearnos si sigue siendo necesaria
la transmisión de la información de forma clásica, es decir, en papel.
Existe actualmente una viva discusión sobre este tema. Determinados profesionales
creen que el formato electrónico no es del todo seguro y prefieren tener siempre una
copia en papel por si hubiera un fallo y pudieran perderse todos los datos almacenados
electrónicamente. Por otro lado, algunos profesionales opinan que la informática es
suficientemente segura y que es una verdadera pérdida de tiempo realizar copias
redundantes en papel de la información almacenada digitalmente en los servidores de la
red informática.
Existe además otro impedimento específicamente español. Un problema
específicamente español, que no existe, está resuelto o está en fase de resolución en otros
países, es la existencia de una normativa que hace especial referencia a una «hoja de
tratamiento». Se trata del Real Decreto 1566/1998, de 17 de julio, por el que se establecen
los criterios de calidad en radioterapia, que en su artículo 7 dice:
Artículo 7. Hoja de tratamiento
En todos los tratamientos de radioterapia se deberá cumplimentar una hoja de tratamiento en
la que se especifiquen, como mínimo, los siguientes datos:
• Identificación del paciente.
• Elementos descriptivos suficientes sobre la enfermedad que se va a tratar.
• Decisión terapéutica con la descripción de los volúmenes relacionados con el tratamiento, dosis
absorbida a administrar, parámetros clínicos de irradiación y elementos de comprobación, así
como la dosis absorbida máxima en los órganos críticos.
• Esquema de tratamiento previsto y dosimetría clínica establecida correspondiente a la decisión
terapéutica del apartado anterior.
• Datos necesarios del informe dosimétrico.
• Todos los datos complementarios y relación de elementos auxiliares que permitan la
reproducibilidad del tratamiento.
Esta hoja será supervisada y firmada, antes del inicio del tratamiento y siempre que se realice
alguna modificación, por el médico especialista responsable del tratamiento, por el especialista en
radiofísica hospitalaria responsable de la dosimetría clínica y, diariamente, por el personal
sanitario que haya administrado el tratamiento. Cuando deba aplicarse un tratamiento urgente
en ausencia del especialista en radiofísica hospitalaria, su firma antes del inicio del tratamiento
no será preceptiva.
La información que contiene la hoja de tratamiento deberá quedar registrada y constará en la
historia clínica del paciente.
Una interpretación de este Real Decreto sería aquella que considerara el papel como
soporte de toda esa información que debe ser recogida. Otra interpretación que permite
una adecuación a los momentos actuales, sería aquella que considerara una hoja de
tratamiento electrónica, en que podría constar toda aquella información requerida, ya que
la tecnología puede dar solución a lo que requiere ese Real Decreto. De cualquier forma
una norma de 1998 está precisando ser actualizada, requiriéndose una modernización y
adecuación al siglo xxi.
Mientras tanto habrá servicios de radioterapia que opten por el soporte papel y habrá
otros que interpretarán la norma con los ojos de los nuevos tiempos.
3. Comunicaciones, computación y ordenadores en
los departamentos de radioterapia
3.1. Introducción histórica
Los resultados de la terapia con radiaciones dependen de su exactitud y precisión. Varios
avances tecnológicos han ayudado a mejorar los resultados de los pacientes y a reducir
los posibles errores cometidos durante el tratamiento, uno de los cuales es la
introducción del registro y los sistemas de verificación de software. El registro y las
verificaciones mediante sistemas de software empezaron a desarrollarse en los años 1970,
y muy pronto se dispuso de versiones comerciales. Como los tratamientos de
radioterapia se hicieron más complejos, y las innovaciones tecnológicas se multiplicaron,
este campo empezó a demandar sistemas de tecnología de la información modernos y
actualizados para las necesidades del tratamiento. Esto hizo que el software inicial de
registro y verificación evolucionase hacia un verdadero software de control de los
parámetros de tratamiento. La introducción del software en los servicios de radioterapia
hizo que disminuyeran los errores cometidos en el tratamiento, mientras que en paralelo
aumentaban tanto la complejidad como la eficiencia del tratamiento radioterápico.
Recientemente, el software de los programas ha sido desarrollado para disminuir
cualquier error en el tratamiento, incluyendo fichas de tratamiento informatizadas,
sistemas de imagen y sistemas de gestión de información general, como pueden ser la
historia clínica, seguimientos de sesiones, etc. En la actualidad existen varios programas
de gestión en oncología, sobre todo aplicables en oncología radioterápica. Estas
aplicaciones están diseñadas para mejorar la veracidad y la integridad de la información
de cada paciente. Es importante que los oncólogos radioterápicos sean conscientes de la
historia y del futuro de la conexión de la radioterapia con los software de gestión en
oncología, y el impacto que va a tener (que realmente ya tiene) en la profesión.
Los modernos generadores de radiación fueron desarrollados en la década de 1950. La
introducción de unidades de megavoltaje transformó el campo de la radioterapia. Si bien
comportaron muchas ventajas, una que podemos destacar fue que los equipos
permitieron tratar a los pacientes haciendo incidir haces de radiación desde múltiples
ángulos, lo que aseguraba una mejor dosis sobre el tumor y una menor morbilidad en los
tejidos cutáneos. Sin embargo, este hecho aumentó de manera considerable la aparición
de posibles errores en el tratamiento.
A finales de la década de 1970, la confección y la plasmación de un tratamiento de
radioterapia implicaban escribir de forma manual entre 15 y 20 parámetros por paciente,
tales como el tamaño del campo, el ángulo del colimador o el ángulo del brazo de giro de
la unidad. Debido a que la probabilidad de cometer un error al azar en la transmisión
manual de estos parámetros era considerable, los proveedores de equipos de
radioterapia empezaron a diseñar e introducir sistemas de verificación y registro
automático mediante un software. Estos sistemas deberían detectar e impedir que el
tratamiento se realizase cuando los parámetros del haz de radiación del acelerador no
coincidieran con los diseñados en un principio, es decir, deberían impedir
automáticamente la ejecución del tratamiento en caso de cualquier discrepancia con su
diseño original.
En sus inicios, el sistema de comprobación y verificación estaba diseñado de manera
general para todas las unidades de tratamiento. El software era cargado en
microordenadores y cada máquina de tratamiento tenía su propio sistema. Los datos de
los pacientes se almacenaban en cintas de casete, en disquetes, en hojas o en fichas de
papel. Este sistema fue un gran primer paso para disminuir los errores de tratamiento,
pero se necesitaba que los programas fueran específicos en su control y verificación. Así
pues, la verificación fue restringida a una unidad de tratamiento individual. El sistema
también carecía de capacidad para generar informes para programación, facturación o
investigación, y además los sistemas de almacenamiento de datos de los pacientes
tampoco eran fiables ni seguros.
En la década de 1980 se inició el diseño de software centralizado y conectado a todas las
unidades de tratamiento. El Memorial Sloan-Kettering Cancer Center fue uno de los
primeros centros de radioterapia que dio a conocer su experiencia de un registro
centralizado y un sistema global record and verify. Entre los beneficios de este software
cabe destacar la creación de informes que requieren los datos epidemiológicos y
demográficos de los pacientes, su análisis estadístico, la posibilidad de transferencia de
pacientes entre diferentes unidades de tratamiento en caso de avería, y el incremento de
la capacidad para almacenar todos los parámetros de tratamiento.
La creación de este sistema centralizado (ahora ya como una auténtica red informática)
no fue fácil; en realidad, fue una tarea muy laboriosa que consumió muchos recursos
hasta su realización. La mayor dificultad radicaba en las propias unidades de
tratamiento, ya que mientras cada máquina se comunicaba a un ordenador central, las
unidades de radiación no se conectaban con el mismo formato o nivel de datos. Este
hecho llevó al desarrollo de interfaces entre las unidades y el ordenador central o host.
Así mismo, hubo que diseñar estándares de comunicación con el fin de transmitir datos
y prevenir el beam on o puesta en marcha de la irradiación cuando los parámetros leídos
por la unidad de tratamiento estaban fuera de los límites establecidos.
Una de las principales carencias de los sistemas iniciales de registro y verificación era
su imposibilidad de generar informes. Con el sistema centralizado de ordenadores, esta
dificultad fue rápidamente subsanada. Los datos demográficos de cada paciente ahora sí
podían ser introducidos en el sistema o red, así como la prescripción del tratamiento. Así
mismo, el registro del tratamiento y su verificación también pudieron ser almacenados.
Los datos estandarizados en el ordenador central permitieron la creación de informes y
su racionalización, ya que podían incluir la información demográfica del paciente, listas
por orden alfabético, parámetros y tiempos de tratamiento, e incidencias durante este.
Un trabajo muy interesante fue el realizado en el Milwaukee Regional Medical Center.
Este centro puso en marcha y evaluó la red de Siemens Mevamatic III Record and Verify
System. La red se instaló en enero de 1984 y los autores del trabajo destacaron sus
grandes ventajas: capacidad para gestionar los datos de más 400 pacientes, control de los
tratamientos de radioterapia, verificación de la exactitud de los parámetros de
tratamiento, registro diario de todos los datos del tratamiento, incluyendo fechas y dosis
(que servían de verificación de la hoja de tratamiento), y almacenamiento a largo plazo
de los datos del tratamiento. El proceso de registro y verificación de los pacientes en red
era simple. En primer lugar, se introducía el número de identificación del paciente, y
luego toda la información del tratamiento era mostrada en los monitores del ordenador.
Los recursos de utilizar una red permitieron el uso de un monitor en la sala de
tratamiento, así como en la sala de control, lo cual aceleró la puesta en marcha del
tratamiento. Después se colocaba al paciente en la unidad de radiación y el software
verificaba los parámetros de tratamiento. Esta verificación tardaba en torno a 1 minuto.
Al finalizar, el sistema registraba los datos del tratamiento y las incidencias que se
hubieran producido. En cualquier tratamiento con parámetros anormales, estos eran
imprimidos para determinar y descubrir el fallo. Este sistema de verificación funcionó en
paralelo con la clásica hoja en papel del tratamiento.

3.2. Redes de radioterapia comerciales en la actualidad


En los últimos 10 años ha habido grandes progresos tecnológicos en el diseño de las
unidades de radiación (colimadores multilámina [MLC, multi-leaf collimator], cuñas
dinámicas, mandíbulas asimétricas), y un aumento y desarrollo en los sistemas y redes
comerciales de software informático tipo record and verify. Los tratamientos de radiación
se han hecho así mismo cada vez más complejos gracias a la planificación 3D e IMRT, y a
la utilización de MLC. Y una vez más, ha aumentado críticamente la posibilidad de
cometer errores. Esto hace que sea imprescindible la utilización de una red de
verificación y almacenamiento de los datos de los tratamientos de radioterapia.
A mediados de los años 1990, los sistemas de control y verificación comercialmente
disponibles habían evolucionado a un entorno cliente-servidor conectado mediante una
red. Así mismo se introdujo el sistema operativo Windows, y el sistema y la arquitectura
de red-cliente se basaron en el TCP/IP. Las interfaces fueron diseñadas para la
comunicación entre sistemas de planificación de tratamiento, unidades de irradiación,
estaciones de trabajo, estaciones de control del MLC, aceleradores lineales y la propia red
en sí.
Antes de la existencia de la red, el tratamiento con un campo MLC era un proceso
arduo y muy complejo. Sin interfaces automáticas, el responsable del tratamiento
(radiofísico, oncólogo radioterápico o técnico) tenía que ir a la estación específica de
trabajo del MLC y enviar a la consola de trabajo del acelerador las hojas del MLC de cada
campo individualmente, con el riesgo de equivocación y la considerable carga de trabajo
que ello implicaba. A continuación, otra persona tenía que entrar en el búnker de
tratamiento y comprobar si realmente los haces de radiación cargados en el acelerador
eran los correctos, chequeándolos con los enviados por la consola al MLC. Incluso con
estas verificaciones, los tratamientos todavía eran propensos a error. Con la red, tanto los
ordenadores de las estaciones de los MLC como los de control del acelerador, se
comunican automáticamente y las hojas del MLC se posicionan de manera automática
para cada campo. Así mismo, el software tiene el control sobre los demás parámetros de
la máquina, como pueden ser el tamaño del campo, el ángulo del colimador, el ángulo del
brazo o la posición de la mesa de tratamiento; parámetros estos últimos que también
pueden ser controlados mediante el mando manual de control del acelerador. Todo esto
precisó el desarrollo de la red de forma que el sistema de planificación dosimétrico se
comunicara con el acelerador y se pudiera volcar toda la información de la planificación
directamente en la unidad de radiación.
La introducción de la red ha permitido reducir considerablemente la aparición de
errores en los tratamientos de radioterapia. Un estudio de la University of Michigan
sobre 34.463 tratamientos realizados con red, analizados y comparados con 114.083
tratamientos realizados sin red demostró una drástica disminución de los errores
aleatorios en los parámetros de tratamiento de los pacientes.
La puesta a punto y la introducción de redes en el control de los sistemas de
radioterapia han tenido un impacto profundo en el campo de la radioterapia. La red
permite la interconexión de todos los sistemas y equipos de radioterapia, con
independencia del fabricante, y ha posibilitado un aumento de la complejidad de los
tratamientos, aumentando también en paralelo la seguridad de estos. Técnicas como la
IMRT serían impensables sin el sistema de redes actualmente en uso, así como el
almacenamiento de la ingente información que arrastra cada tratamiento (fig. 8-9).

FIGURA 8-9 Necesidad de la red en radioterapia.

Un aspecto importante de las redes comerciales es que también proporcionan


interfaces para conectarse a sistemas externos a ellas. Las interfaces están diseñadas para
comunicarse a un nivel 7 (HL7) se seguridad con otras redes de tipo sanitario. El nivel
HL7 define estándares de intercambio de datos electrónicos con la más alta seguridad en
orden a mantener su integridad y la no aparición de posibles errores durante la
transmisión.
La arquitectura de las redes resultante de estos desarrollos es la siguiente:
• Un servidor u ordenador central donde se almacena y gestiona toda la información. Así
mismo, este servidor tiene una conexión exterior para facilitar el diagnóstico de averías
de la red, la instalación de actualizaciones y las conexiones con PACS externos al
servicio (fig. 8-10).
• Una conexión con el planificador (que puede estar integrado o no en la red).
• Finalmente, un acceso a las unidades de radiación con el fin de transmitir
correctamente los datos del tratamiento (fig. 8-11).

FIGURA 8-10 Servidor principal.


FIGURA 8-11 Acceso a las unidades de radiación.

Redes comerciales específicas


En la actualidad existen tres principales redes comerciales: LANTIS, desarrollada para
gestionar las unidades de tratamiento SIEMENS; ARIA®, que gestiona las unidades de
VARIAN; y MOSAIQ™ (IMPAC), que generalmente gestiona las unidades de ELEKTA,
pero también cualquier otro tipo de acelerador. Todos son sistemas aceptables. Los dos
primeros están enfocados fundamentalmente a la gestión de pacientes en las unidades
de tratamiento y al control de calidad del tratamiento; el segundo consta de diferentes
módulos, que abarcan desde gestión de datos administrativos, facturación, etc., hasta los
más complejos como los de registro y verificación de tratamientos, prestaciones que
llevan consigo un elevado coste de adquisición y mantenimiento.

Red LANTIS
La red LANTIS fue desarrollada a finales de los años 1990 y su aplicación ha sido para la
conexión de los equipos de SIEMENS. Actualmente está en desuso. Amplia, fácil de usar,
modular y práctica, LANTIS era un sistema integrado a nivel de base de datos y de las
diferentes aplicaciones o módulos, diseñado para satisfacer todas las necesidades de un
servicio de oncología, desde el registro de los pacientes hasta su seguimiento, pasando
por todas las etapas de tratamiento. LANTIS proporcionaba acceso instantáneo a toda la
información clínica y administrativa. Era un conjunto de herramientas que permitían al
personal administrar, localizar y evaluar a un paciente a lo largo de todo el proceso y en
cada una de las etapas que integran su tratamiento, en todos los departamentos de un
servicio de oncología. Con una base de datos totalmente integrada podía optimizarse la
eficiencia del servicio, eliminando la necesidad de entrada redundante de datos. La
calidad de la atención mejoraba al reducir significativamente la posibilidad de error
humano. La tecnología cliente-servidor de LANTIS preservaba la integridad de los datos
en una ubicación central, accesible desde cualquier estación de trabajo LANTIS. Los
beneficios generados por un sistema de administración de la información se determinan
por su capacidad de «adoptar» los mismos formularios usados hasta el momento en el
hospital y mejorar las condiciones de trabajo del medio donde se insertan, mediante la
racionalización de los procedimientos empleados en dicho medio.

Red ARIA®
La red ARIA® es la evolución de la antigua red VARIS de VARIAN. Mientras que la red
VARIS se subdividida en una serie de módulos (la tecnología VARIS funcionaba en
entorno Windows conforme a las herramientas gráficas 4GL con arquitectura cliente-
servidor, y el hardware se componía de servidor PC o RISC con estaciones de trabajo PC
en entorno NT, con conectividad a UNÍX TCP/IP), la nueva red ARIA® también funciona
en una plataforma Windows, pero ha fusionado los antiguos módulos de VARIS
convirtiéndose en un único módulo de trabajo. Una configuración típica es la que se
muestra en la figura 8-12, donde la red interconecta todos los equipos del servicio de
radioterapia. La red funciona mediante protocolo TCP/IP y es de gran utilidad para el
funcionamiento global del servicio.
FIGURA 8-12 Red ARIA.

Red MOSAIQ™
La red MOSAIQ™ (evolución de IMPAC) es la red que gestiona las unidades de ELEKTA
(fig. 8-13). Se basa en el sistema ESI (External System Interfase manager), que gestiona
mediante protocolo TCP/IP toda la información del servicio de radioterapia y la
interconexión con las otras redes del hospital. Uno de los principales componentes de la
red es el sistema de gestión central EMR, similar al diseñado por ARIA® y que permite el
acceso de cualquier fase de tratamiento y la sincronización para realizar calendarios de
tratamiento. Tanto en funcionamiento como en prestaciones, es similar a la red ARIA®
diseñada por VARIAN.
FIGURA 8-13 Red MOSAIQ.

3.3. Lenguaje de las comunicaciones: el estándar DICOM


DICOM (digital imaging and communication in medicine) es el estándar reconocido
mundialmente para el intercambio de imágenes médicas, pensado para el manejo, el
almacenamiento, la impresión y la transmisión de imágenes médicas.
En los primeros años de evolución de la disciplina de diagnóstico por la imagen, la
presentación y la manipulación de las imágenes se realizaba sobre medios físicos, como
placas radiográficas, papel y pantallas CRT, entre otros, con todas las limitaciones que
estos presentan. En la actualidad, el uso de imágenes digitales para diagnóstico ha
aumentado notablemente debido a las nuevas tecnologías en instrumentación y al rápido
desarrollo del soporte computacional, y además suponen una mejor calidad y una mayor
diversidad, y la posibilidad de transmitirlas a distintos puntos de inmediato.
Cuando surgieron los primeros formatos de archivos de imágenes digitales,
inevitablemente se presentaron numerosos problemas de compatibilidad entre
fabricantes que dificultaron el intercambio de imágenes entre los sistemas de
información hospitalarios. Es por ello que el American College of Radiology (ACR) y la
National Electrical Manufacturers Association (NEMA) iniciaron, en 1983, un proyecto
para la elaboración de un estándar que solucionara las dificultades de la transferencia de
imágenes médicas y la información asociada a ellas. Tras varios intentos, en 1993 se creó
el formato DICOM 3.0, que es el estándar utilizado por las firmas digitales en la
actualidad. Hoy por hoy es un estándar en revisión continua que periódicamente genera
nuevas versiones (fig. 8-14).

FIGURA 8-14 Ejemplo de servicios DICOM.

Entre las características más sobresalientes de DICOM 3.0 pueden citarse:


• Es aplicable a un entorno de red. Las versiones previas sólo ofrecían comunicación
punto a punto. La versión 3.0 de DICOM determina el soporte de operaciones en un
ambiente de red usando protocolos estándar, tales como TCP/IP.
• Especifica cómo deben reaccionar los dispositivos a los comandos y a los datos que son
intercambiados. Las versiones anteriores fueron confinadas a la transferencia de datos,
pero la versión 3.0 de DICOM específica, con el concepto de las clases de servicio, la
semántica de los comandos y de los datos asociados. DICOM tiene un conjunto muy
amplio de servicios, la mayoría de los cuales implica transmisión de datos sobre la red,
y el formato de fichero en que se sustenta es en realidad una ampliación posterior y de
menor importancia del estándar. Dichos servicios son:
• Dicom Store: usado para mandar imágenes u otros objetos persistentes (informes
estructurados, etc.) a un PACS o a una estación de trabajo.
• Storage Commitment: usado para confirmar que una imagen ha sido almacenada
permanentemente por un dispositivo. El usuario de la clase de servicio (modalidad,
estación de trabajo, etc.) utiliza la confirmación de la clase de servicio del proveedor
(estación de almacenamiento) para asegurarse de que puede borrar la imagen
localmente.
• Query/Retrieve: permite a una estación de trabajo hacer búsquedas de imágenes en un
PACS y recuperarlas.
• Dicom Worklist: permite a un equipo de imagen que incluya esta funcionalidad o
servicio DICOM, leer la «lista de pacientes citados», obtener detalles de los pacientes
y los exámenes médicos solicitados electrónicamente, evitando la necesidad de
introducir esa información varias veces y sus consiguientes errores.
• Modality Performed Procedure Step: servicio complementario al Modality Worklist que
permite a la modalidad mandar un informe sobre los exámenes médicos realizados
incluyendo datos sobre las imágenes adquiridas, las dosis dispensadas, etc.
• Dicom Print: usado para mandar imágenes a una impresora DICOM, normalmente
para imprimir una placa de rayos X.
• Especifica niveles de conformidad. Las versiones previas especificaban un nivel
mínimo de conformidad. (Cualquier dispositivo o sistema que declara conformidad
con la norma DICOM debe interactuar con parte o con la totalidad de un sistema
PCAS. La versión 3.0 de DICOM describe explícitamente cómo un implementador
debe estructurar una declaración de la conformidad para seleccionar opciones
específicas.)
• Se estructura como documento de varias partes, lo que facilita la evolución del estándar
en un ambiente de rápido desarrollo, simplificando la introducción de nuevas
características.
• Introduce objetos de información (un componente fundamental que se utiliza para
representar los datos del mundo real y define el centro de contenidos de información
médica, en su mayoría imágenes) explícitos no sólo para imágenes o gráficos sino
también para estudios, informes, visitas, procedimientos, listas de tareas, etc.
Un beneficio importante de los servicios DICOM 3.0 está vinculado con la interrelación
de los diferentes sistemas de información de un hospital, como los sistemas de archivado
y transmisión de imágenes (PACS), los sistemas de información radiológica (RIS) y los
sistemas de información del hospital (HIS). En los sistemas PACS es donde su aplicación
tiene mayor relevancia, dado que estos pueden ser utilizados por los diferentes
ambientes que generan y utilizan imágenes médicas de diagnóstico, manteniendo la
operatividad entre ellos.
La necesidad de extender los estándares al campo de la radioterapia, dio lugar a la
construcción del estándar DICOM RT, con el cual se resuelven los problemas que impone
el trabajo radioterápico, como por ejemplo, la exportación, no solo de todo tipo de
imágenes, sino también de los parámetros y las características de los haces de radiación
que utilizan los aceleradores en el tratamiento.
4. La red radioterápica y su conexión e integración
con HIS, PACS Y RIS: niveles de integración y
problemas
4.1. Sistemas informáticos generales o HIS
El HIS (hospital information system) es un sistema integrado de información diseñado
para gestionar todos los aspectos clínicos, administrativos y financieros de un hospital.
Además, permite obtener estadísticas generales de pacientes, datos epidemiológicos, de
salud laboral y de salud pública, entre otros.
Los HIS nacieron en los años 1950 para colaborar con la gestión administrativa de los
pacientes; es decir, registrar la actividad relativa a los pacientes así como los sistemas de
gestión de suministros y stock de productos, sistemas de finanzas y contables, etc.
La historia de los HIS es en realidad la historia de los sistemas de información en el
campo de la salud, ya que fue en el entorno hospitalario donde estos primero se
implantaron. Durante las décadas de 1950 y 1960, los sistemas de información se
introdujeron casi exclusivamente por necesidades financieras y de gestión económica de
los centros. Estos sistemas se centraban en recoger datos demográficos del paciente y
mezclarlos con datos de costes para producir facturas. Así pues, se desarrollaron
sistemas de facturación y de contabilidad. Este periodo viene caracterizado por los
grandes sistemas informáticos (mainframes), que eran muy costosos. La incapacidad de
muchos hospitales para soportar estos costes tan altos llevó a la necesidad y al éxito de
los sistemas compartidos, es decir, sistemas mixtos de procesamiento de datos clínicos y
administrativos. Un sistema de información hospitalario típico de los años 1960 tenía
poco de sistema clínico, ya que el énfasis estaba puesto en la contabilidad, las nóminas y
los recursos humanos. Los únicos sistemas clínicos que se desarrollaron fueron sistemas
de registros de pacientes que recogían, sobre todo, datos con los que estudiar
diagnósticos y tomar decisiones para mejorar la precisión diagnóstica, para tomar
decisiones clínicas más fiables y para aumentar la comprensión de la estructura del
conocimiento médico, de tal manera que pudieran tomarse mejores decisiones y seguir
mejores métodos de diagnóstico.
En los años 1970 comenzaron a dejarse sentir con más fuerza las necesidades clínicas,
pero principalmente como un resultado de las necesidades financieras. Estas cuestiones
financieras se centraban en maximizar los ingresos y capturar los costes, y los sistemas
de atención al paciente podían servir como vehículo para documentar las órdenes y las
peticiones, e indirectamente sus costes. Sin embargo, con este objetivo financiero
continuo se hizo poco esfuerzo para tratar las necesidades de los médicos y enfermeras
implicados en la atención directa del paciente. El crecimiento de los sistemas
departamentales coincidió con la disponibilidad de los miniordenadores, de menor coste
que los mainframes. Los hospitales estaban ya experimentando una necesidad creciente
de manejar datos de servicios específicos y del hospital en su conjunto.
La década de 1980 impulsó un cambio drástico: de maximizar los ingresos a maximizar
el reembolso. Se comenzó a presionar para mejorar la coordinación entre diferentes
servicios y para reducir la estancia. Cada vez cobraba mayor importancia la contención de
costes, los sistemas de pago prospectivo, los grupos relacionados por el diagnóstico, la
revisión de utilización, etc. Los servicios clínicos comenzaron a recibir mayor presión
para mejorar la productividad. Sin embargo, un hecho clave en el crecimiento de los
sistemas departamentales fue el desarrollo de los microordenadores y de los lenguajes
de programación de cuarta generación, que trajeron un mayor acceso a los datos y a un
menor coste. Un sistema de información hospitalario típico de los años 1980 estaba
formado por un sistema de contabilidad y un sistema de atención al paciente.
En los años 1990 y principios del siglo xxi, los sistemas se mueven en la dirección de
centrarse en el paciente y estar orientados clínicamente; estos sistemas no contemplan al
paciente como una colección de números o episodios, sino como un flujo continuo de
datos. De esta forma podrá conseguirse más información desde el punto mismo de la
asistencia, y los sistemas mejorarán la comunicación proveedor-paciente.
En los últimos 20 años, la tendencia ha ido dirigida a desarrollar sistemas
descentralizados especializados en la resolución de problemas concretos, que recogen la
información requerida y ponen a disposición del resto de los sistemas los datos más
relevantes. Entre los sistemas más destacados podemos citar PACS, LIS (laboratory
information system) y sistemas de información para anatomía patológica, entre otros, en
los que se resume la información clínica del paciente que ha sido transmitida desde los
subsistemas de las distintas especialidades médicas del hospital junto con la información
generada por el propio sistema principal del HIS. En el puesto de trabajo computarizado
clínico se recogen los datos que constituyen la historia clínica electrónica y que es una de
las herramientas principales utilizadas por los profesionales sanitarios en la atención de
los pacientes.
En la situación actual, a pesar de que cualquier subsistema de información del hospital
relacionado con la atención a los pacientes se considera parte del HIS, a menudo, cuando
se habla de HIS, se hace referencia sólo al sistema que apoya la parte administrativa en la
gestión de los pacientes.
En la figura 8-15 se muestra un ejemplo de un paciente que solicita una cita para un
determinado especialista, en este caso se trata de una revisión de cardiología. El proceso
de un paciente hospitalizado es similar, mientras que en el caso de urgencias no hay
solicitud de cita previa.
FIGURA 8-15 Flujo de un paciente en un servicio hospitalario.

Para realizar la cita hay que identificar al paciente en el sistema o darlo de alta, si es el
caso, procedimiento descrito en la sección titulada «Fichero maestro de pacientes». Para
concertar la cita, en primer lugar es necesario seleccionar la prestación requerida en el
catálogo de prestaciones del hospital. Una vez identificados el paciente y la prestación, se
procede a solicitar esta última.
El siguiente paso es realizar la cita de la prestación que se acaba de solicitar. Antes de
abordar el proceso de cita se describirá la configuración de las agendas de los recursos
que intervienen, para optimizar el tiempo. El siguiente paso es concertar la cita.
Llegado el día, el paciente debe acudir al hospital. Este puede llevar un justificante o
comprobante de la cita que se le ha dado previamente, lo que en España se denomina
«volante». En el servicio de admisión se da entrada al paciente en el hospital. Luego, este
acude a su cita con el especialista, quien puede solicitarle una o varias prestaciones, como
una TC (gestionada por el RIS y las imágenes por el PACS) y una analítica (gestionada
por el LIS). Los resultados médicos obtenidos, junto con los datos que haya podido
introducir y el resto de los datos de su historia clínica, pueden consultarse en la estación
clínica. El especialista puede volver a ver al paciente para explicarle el diagnóstico y el
tratamiento a seguir: elabora un informe médico, a veces desde la propia estación clínica
o con una aplicación específica y, en el caso de que el paciente acuda de forma privada, el
sistema administrativo elabora la factura correspondiente. Además, puede haber muchos
otros subsistemas en el hospital que no están representados en la figura 8-15 y que
idealmente podrían estar interrelacionados e integrados. Es común que para que los
subsistemas se comuniquen se utilicen programas específicos, llamados buses o motores
de integración, que se encargan de gestionar los flujos de información.
La configuración que se haga de los procesos antes descritos, junto con el resto de los
subsistemas del HIS, debe reflejar la planificación estratégica que la gerencia quiere
llevar a cabo en el hospital. Para adecuar las políticas del hospital a los objetivos
estratégicos se dispone, precisamente, del HIS.

4.2. Sistemas informáticos RIS


La medicina moderna está cargada de información, y a medida que se extiendan más las
nuevas tecnologías aplicadas a ella, que por demás no parecen detenerse en su desarrollo
y evolución, la generación de los datos e interacciones paciente-sistema médico serán
mayores y el manejo mucho más difícil. Las nuevas tecnologías de la información
basadas en la microelectrónica, junto con otras innovaciones, permiten enormes
aumentos de potencia de cálculo, registro, almacenamiento y reducciones de costes en
todo tipo de procesamiento de información: generación, almacenamiento, transmisión,
manipulación y visualización, que incluyen datos numéricos, de texto, de sonido o de
vídeo. Sin embargo, una cuestión fundamental es la velocidad a la que se adaptarán las
instituciones para aprovechar las nuevas formas de hacer las cosas a partir de las nuevas
tecnologías de la información. Las instituciones de salud buscan y aplican soluciones de
bajo coste, con la flexibilidad necesaria, para permitir el acceso a la información
(incluyendo imágenes) en cualquier lugar y en cualquier momento, y para compartir
datos e imágenes a través de varias instituciones.
Existen varios tipos de sistemas de información relacionados con la salud. Podemos
encontrar el HIS, cuya función principal es mantener la información referente a los
servicios de un hospital accesible a los actores del mismo. Dentro de las instituciones de
salud hay varios servicios especializados, como el laboratorio clínico, anatomía patológica
e imagenología, por citar algunos. Cada uno dispone también de sistemas de
información que han sido optimizados para su funcionamiento de acuerdo con los
requerimientos específicos de cada rama. Para los casos citados se encuentran los
sistemas LIS, PIS y RIS, respectivamente.
La aceptación en el entorno sanitario de los RIS ha sido buena, en general, debido a la
enorme ayuda que supone la gestión de una ingente cantidad de exploraciones e
imágenes radiológicas.
Un RIS debe gestionar toda la actividad radiológica de un paciente (fig. 8-16), desde la
petición de un estudio hasta su informe, pasando por la recogida de las incidencias o
consumos que conlleve la realización de la exploración. Puede definirse el RIS como la
herramienta informática que permite gestionar los procesos de un departamento de
radiología mediante aplicaciones informáticas residentes en ordenadores. De la
definición se desprende que en la evaluación del rendimiento y las prestaciones de un
RIS debemos valorar los equipos de informática a utilizar y la conexión entre ellos, por
un lado, y por otro el programa informático y los distintos componentes del mismo. Su
objetivo principal consiste en racionalizar y optimizar el trabajo que supone una
actividad diaria que tiene como resultado la realización de exámenes a pacientes, con su
consiguiente flujo de trabajo generado al tener que diagnosticar e informar las pruebas.
FIGURA 8-16 Diagrama de funcionamiento de una red RIS.

4.3. Sistemas informáticos PACS


La tecnología PACS se introdujo a mediados de los años 1980, pero no fue realmente
hasta el inicio de la década siguiente cuando realmente tuvo su maduración. Vio su
primera instalación operativa en los servicios de diagnóstico por la imagen de la
Universidad de California en Los Angeles (UCLA) a lo largo de la década de 1980. En
aquella época, la UCLA se convirtió en el principal centro de desarrollo y
experimentación en PACS. Ya en 1992 se podían contar alrededor de 20 PACS instalados
en Europa con distintos niveles de implantación, pero hay que citar especialmente los
trabajos teóricos y de estandarización realizados en el Hospital de la Universidad Libre
de Bruselas (Bélgica) y en el Hospital del Danubio (Viena, Austria), diseñados para
funcionar sin película.
Los objetivos de un PACS son capturar, gestionar, transmitir y exhibir imágenes
médicas. Sus componentes son interfaces con equipamiento de imagen, redes de
comunicación, sistemas de archivo, estaciones de trabajo para la exhibición de imágenes
y software de gestión de base de datos (fig. 8-17).

FIGURA 8-17 Red PACS.

Ya sabemos claramente que un PACS no es una isla única; habita en un mar de


información con otras islas conocidas, como RIS, HIS y el sistema de desarrollo de
información DIS (development information system), generalmente encargado de toda la
gestión económico-administrativa del hospital.

4.4. Integración con los servicios de radioterapia


Las redes de radioterapia están conectadas a multitud de servicios y por ellas transcurre
una ingente cantidad de información. La integración de la red local de radioterapia con
otras redes pasa por lo que se denomina un switch. Un switch (en español, conmutador) es
un dispositivo de interconexión de redes de ordenadores/computadoras que opera en la
capa 2 (nivel de enlace de datos) del modelo OSI (open systems interconection). Un switch
interconecta dos o más segmentos de red, funcionando de manera similar a los puentes
(bridges), pasando datos de una red a otra (fig. 8-18).
FIGURA 8-18 Puertas y routers de intercomunicación de redes.

La conexión también puede establecerse mediante un router, que tiene más facilidades
de software que un switch. Al funcionar en una capa mayor que la del switch, el router
distingue entre los diferentes protocolos de red, tales como IP, IPX, Apple Talk o DECnet.
Esto le permite tomar una decisión más inteligente que la del switch en el momento de
reenviar los paquetes.
Los problemas de conectividad de red tienen distintas causas, pero normalmente se
deben a adaptadores de red incorrectos, a una inadecuada configuración de los
modificadores, a un hardware defectuoso o a problemas del controlador. Algunos
síntomas de los problemas de conectividad son intermitentes, por lo que no parecen
señalar claramente una de estas causas.
A veces, una actualización del sistema operativo introduce los problemas de
conectividad de red. El mismo adaptador de red que funcionó correctamente en un
sistema operativo anterior o diferente, como Microsoft Windows 98 o Microsoft Windows
95, puede producir problemas después de una actualización. En ocasiones, el motivo de
un problema de conectividad puede ser la reubicación de un servidor.
Las causas más comunes de los problemas de conectividad son:
• Los adaptadores de red y los puertos conectores tienen niveles de dúplex o parámetros
de velocidad de transferencia no coincidentes.
• Los adaptadores de red o los conectores con tasas de transmisión de 10/100 megabits
por segundo (Mbps) no conectan correctamente. Alguna configuración de detección
automática no puede detectar bien la velocidad de algunos adaptadores de red.
• El adaptador de red es incompatible con la placa base o con otros controladores o
componentes de hardware o de software.
También hay que vigilar el buen funcionamiento del router y la identificación correcta
de los puertos y las entradas de los distintos servidores que tienen que intercambiar la
información. Para esto es necesaria una buena definición de las IP de cada estación de
trabajo (una dirección de IP [Internet Protocol] es una identificación numérica [dirección
lógica] que se asigna a dispositivos que participan en una red de ordenadores que utiliza
el protocolo de Internet para la comunicación entre sus nodos), así como la identificación
correcta de los paquetes transmitidos. También, para su buen funcionamiento la red ha
de trabajar en lenguaje compatible DICOM.
Así mismo, la red debe disponer de un cortafuegos, que es un software dedicado que
inspecciona el tráfico de la red que pasa por él, y niega o permite el paso basándose en
un conjunto de reglas definidas por el administrador.
Para verificar las redes existen comandos que permiten comprobar su funcionamiento.
Algunas de las herramientas ofrecidas por Unix para diagnosticar problemas de red (y
habitualmente disponibles también en otras plataformas) son las siguientes:
• Ping: es la herramienta básica para verificar la conectividad de la red. Permite
determinar si un host es alcanzable y proporciona estadísticas sobre los tiempos de
respuesta de la red.
• Traceroute: muestra la ruta que los paquetes seguirán desde un host de origen hasta otro
host de destino. Permite, entonces, diagnosticar problemas de ruteo.
• Nslookup: permite hacer consultas interactivas a un servidor DNS.
• Netstat: despliega información sobre la tabla de ruteo, las interfaces y los sockets
activos.
• Ifconfig: si bien es básicamente una herramienta de configuración, puede utilizarse
también como herramienta de diagnóstico, para detectar errores en la dirección IP,
máscara de subred o dirección de broadcast.
5. Resumen
En este capítulo se desarrollan y explican conceptos como qué son los equipos
informáticos, la aplicación y la gestión tanto en redes hospitalarias generales como en
redes específicas en radioterapia, así como redes informáticas, Internet y sus
aplicaciones, y los requerimientos de protección de datos. Hoy en día es inconcebible la
gestión de un servicio de radioterapia sin ordenadores ni redes informáticas específicas
de la especialidad. El objetivo de este capítulo es conocer los componentes
fundamentales del ordenador, comprender y saber describir los sistemas informáticos de
gestión hospitalarios, tanto generales como específicos de radioterapia, explicar los
diferentes tipos de redes informáticas y conocer sus riesgos de seguridad.
Bibliografía
Andreu Martínez V, Agullo Boix V, Gómez Molla JA, Martínez Mateu V. PONTO. Un sistema de información para la
gestión de los servicios de oncología radioterápica. Oncología. 2006;29:194–205.
Barberis LS. Aplicaciones de un sistema automático de procesamiento de imágenes médicas basada en estándares. Tesis Carrera
Maestría en Física Médica. Instituto Blaseiro. Argentina: Universidad Nacional de Cuyo; 2009.
Carnicero J, Fernández A. Manual de salud electrónica para directivos de servicios y sistemas de salud. LC/L. 3448. Enero
de 2012.
DICOM. Imágenes diagnósticas y comunicaciones en medicina. Universidad Santo Tomas de Aquino, Facultad de
Ingeniería Electrónica. Bogota D.C.; 2004.
MOSAIQ User’s Guide. MOSAIQ Version 2.0. Disponible en:
http://www.radonc.ucsf.edu/links/forms/Mosaiq/UserGuide.pdf.
Oliván JA. Sistemas de información hospitalarios: el C. M. B. D. Scire. 1997;3:115–130.
Oncology Systems. VARIAN. Netword Configuration Guidelines. P/N 100014120. November 19, 2008. Disponible en:
http://www.varian.com/us/oncology/radiation_oncology/aria/
Real Decreto de Garantía y Control de Calidad en Radioterapia. R. D. 1566/1998 (17 julio 1998). Disponible en:
http://piramidenormativa.sne.es/Repositorio/MSC/Real%20Decreto%201566-1998%20de%2017%20de%20julio.pdf
PA R T E 3
El proceso radioterápico. Dosimetría física.
radiobiología
Capítulo 9: Procesos y procedimientos en la actividad radioterápica
Capítulo 10: Dosimetría física en radioterapia externa
Capítulo 11: Radiobiología
C AP Í T U L O 9
Procesos y procedimientos en la actividad
radioterápica
Luis Núñez Martín

ÍNDICE
1. Introducción 132
2. Estructuración organizativa de la radioterapia: procesos y procedimientos 132
3. Recursos humanos 133
4. Procesos y procedimientos en radioterapia 134
4.1. Admisión del paciente 134
4.2. Simulación 135
4.3. Prescripción dosimétrica 136
4.4. Planificación dosimétrica 136
4.5. Aceptación médica 137
4.6. Verificación experimental 137
4.7. Documentación e informe dosimétrico, transmisión de
datos y almacenamiento 137
4.8. Tratamiento 138
4.9. Seguimiento clínico y de enfermería 139
4.10. Fin del tratamiento 139
5. Resumen 139
Bibliografía 139
1. Introducción
En el presente capítulo se estudiará la estructura de la actividad radioterápica, algo
especialmente importante dada su complejidad si se compara con otros departamentos
médicos. Esta complejidad es consecuencia tanto de la variedad de tareas que hay que
realizar para llevar a buen término un tratamiento radioterápico como de la diversidad
de profesionales involucrados en ellas.
Conocer cómo se desarrolla el flujo de tareas que constituyen la actividad radioterápica
es primordial para garantizar la seguridad y la eficiencia de los tratamientos, ya que el
conocimiento sobre en qué momento y en manos de quién está el proceso que
corresponda del tratamiento en curso garantiza que todo lo que a este proceso
corresponda está siendo supervisado por todo el mundo que participa y colabora en él.
2. Estructuración organizativa de la radioterapia:
procesos y procedimientos
Como en toda actividad productiva moderna, la radioterapia está sujeta a una
organización de su gestión basada en procesos. Se entiende como proceso (qué hacemos)
una serie de actos que se suceden en el tiempo, los cuales están organizados en
procedimientos que constituyen el método, esquema o forma en que han de realizarse
dichos actos.
Los procesos están impulsados por el logro de un resultado, se centran en la
satisfacción de los clientes y otros interesados, y contienen actividades que pueden
realizar personas de diferentes departamentos con unos objetivos comunes.
Los procedimientos (cómo lo hacemos) están impulsados por la finalización de la tarea,
se centran en el cumplimiento de las normas y documentan la secuencia de pasos de
ejecución de las actividades que pueden realizar personas de diferentes departamentos
con distintos objetivos.
Según esto, podemos entender que la actividad radioterápica está formada por un
conjunto de procesos que tienen asociados unos procedimientos. Los procesos serían
cada una de las etapas que deben seguirse, desde la entrada del paciente en las
instalaciones de radioterapia hasta su salida de ellas una vez tratado. Los procedimientos
serían las tareas a realizar en cada etapa, que pueden agruparse en: admisión,
simulación, planificación, verificación y tratamiento. (v. cap.25, apartado «6.1 Normativa
específica de aplicación de la protección radiológica en el ámbito operacional en las
instalaciones y en los equipos de radioterapia»).
Esta estructura organizativa está referenciada en el sistema de gestión de calidad, o
puede estarlo, en el apartado de requisitos (ISO 9001) que debe de cumplir un sistema de
gestión de calidad para su aplicación o certificación. La acreditación de la actividad
radioterápica es optativa del centro, pero puede ser conveniente su habilitación al objeto
de regularizarla y homogeneizarla, tanto en el ámbito intrahospitalario como en el
extrahospitalario. No obstante, hay que tener en cuenta que trabajar en el entorno ISO
supone un esfuerzo adicional en el que todos deben sentirse involucrados.
Los departamentos participantes en los procesos y procedimientos son el de oncología
radioterápica (SOR), el de radiofísica y protección radiológica (SRFPR), y el de
enfermería. Este último rara vez es considerado, pero tiene una importancia extrema por
aportar el personal que de manera real y efectiva ejecuta las tareas concretas que
constituyen los tratamientos. Este aspecto queda velado porque estas tareas son
realizadas con las instrucciones y bajo la dirección de los dos departamentos
mencionados, SOR y SRFPR, aunque este último lo haga de un modo no formalmente
declarado.
Esta visión de la organización no es claramente manifiesta. Se elude por diferentes
motivos, todos ellos relacionados con el rol y el desarrollo histórico de dichos
departamentos.
Por el lado de la enfermería nos encontramos con que este departamento aporta los
recursos de personal (enfermería y técnicos operadores) a los departamentos médicos,
quirúrgicos, etc., que los precisan. Su función es proveer y garantizar la organización
eficiente de sus recursos humanos, apoyando a los servicios hospitalarios en el desarrollo
de las tareas clínico-asistenciales para la consecución de sus objetivos específicos. No
interviene, o lo hace de forma mínima, en las funciones de su personal que son
establecidas y asignadas en los propios servicios, por sus jefes respectivos.
Por lo que corresponde al SOR, tenemos que sus funciones son de carácter
fundamentalmente clínico. Establece los tratamientos, prescribe la radioterapia cuando
está indicada y realiza el seguimiento clínico. Su ascendiente y dirección sobre el
personal de enfermería y técnico es directo, estableciendo sus misiones y sus puestos de
trabajo.
En lo que respecta al SRFPR, sus funciones son de colaboración, es decir, de trabajo con
los otros departamentos para la consecución de unos tratamientos óptimos, realizando
tareas de carácter físico-técnico que requieren la participación tanto de los técnicos
dosimetristas a su cargo como de los técnicos operadores asignados en principio al SOR.
Por tanto, el personal de enfermería realiza sus tareas con las instrucciones y bajo la
dirección de los dos departamentos, el SOR y el SRFPR.
La traslación de estos conceptos organizativos al entorno sanitario y hospitalario en
que se desarrolla la actividad radioterápica es de lo más complejo. Reflejo de tal
complejidad puede encontrarse en el propio Real Decreto español 1566/1998 por el que se
establecen los criterios de calidad en radioterapia,
(http://www.boe.es/boe/dias/1998/08/28/pdfs/A29383-29394.pdf), donde se aplica la
denominación de «unidad asistencial de radioterapia» (Art. 3), a la que se asigna la
responsabilidad de tal unidad a un médico nombrado por el titular de la instalación,
nombramiento que va acompañado por el del responsable de la «unidad de radiofísica».
Fruto de estos nombramientos es la Comisión de Garantía y Control de Calidad definida
en el Art.4, donde aparecen ambas unidades, las cuales se repartirán funciones y
responsabilidades en las distintas etapas del Programa de Garantía de Calidad (PGC) de
la unidad asistencial. Es decir, hay una unidad asistencial, pero hay dos responsables que
participan en ese PGC; uno tendrá la dirección y responsabilidad de los tratamientos de
radioterapia (Art. 6.1), pero el radiofísico hospitalario tendrá la dirección y
responsabilidad de la dosimetría clínica de los pacientes. Es de observar que en todo el
texto de esta norma se evita el uso de los términos «servicio» o «departamento».
Esta dualidad solapada de responsabilidades es en sí una incongruencia, y todo porque
el legislador no se atreve a definir la estructura de los departamentos de radioterapia
como unidades funcionales coparticipadas por diferentes servicios con funciones y
responsabilidades que ya existen bien definidas hoy en día en la práctica; algo que muy
posiblemente será corregido en la próxima redacción de esta norma, ya de por sí
superada por la realidad y las condiciones científico-técnicas aparecidas desde su
publicación a finales del siglo pasado.
Aparte de la ambigüedad normativa, la complejidad organizativa de la radioterapia
nace del desarrollo entrelazado, secuencial y continuo de las tareas que realizan los dos
departamentos participantes en el trabajo, las cuales tienen un mismo objetivo: el
tratamiento radioterápico de los pacientes en condiciones de seguridad, con una óptima
calidad y de manera eficiente. Tareas con un mismo objetivo último, pero con diferentes
misiones concretas, que deben mantenerse en sincronía continua.
Cada uno de estos servicios aporta al proceso sus propios recursos humanos e
instrumentales, así como sus procedimientos, los cuales pueden ser comunes a ambos o
particulares de cada uno de ellos. La instrumentación se ha descrito en los
capítulos 5, 6, 7 y 8, correspondientes al equipamiento en radioterapia.
3. Recursos humanos
La radioterapia es una actividad interdisciplinaria, y las tareas a desarrollar implican una
colaboración estrecha y organizada de los que participan en ella. Los recursos humanos
que aporta el SOR son los médicos especialistas en oncología radioterápica, los
profesionales de enfermería y los técnicos especialistas operadores de radioterapia. Las
funciones de los oncólogos están centradas en la justificación y la optimización del
tratamiento en el marco radioprotector. Estas funciones están estrechamente relacionas
con las funciones clínicas. Así mismo, dada su relación con los equipos radiantes y la
responsabilidad asociada, deben contar con una formación en protección radiológica, que
considerando la normativa debe capacitarlos como supervisores de instalaciones
radiactivas, para el ejercicio de las consiguientes funciones de dirección de estas.
Las funciones de la enfermería son de puro carácter asistencial, con un papel pasivo en
el marco radioprotector ya que habitualmente sólo aparecen como trabajadores
expuestos y únicamente en algunos puestos o tareas.
En cuanto a los técnicos operadores de las máquinas de irradiación, están a cargo
directo de los tratamientos de los pacientes y por tanto involucrados, en términos de
radioprotección, de forma más o menos directa, en la optimización y la limitación de la
dosis a los pacientes. Han de procurar una correcta aplicación de los tratamientos,
siguiendo los planes aprobados por el SOR y el SRFPR. De igual forma, sus actuaciones y
buen proceder inciden de forma directa en la radioprotección de los propios técnicos y en
la de todo aquel que circula por las instalaciones o sus inmediaciones.
Los recursos humanos aportados por el SRFPR son los especialistas en radiofísica
hospitalaria y los técnicos dosimetristas, ambos formados no sólo en las técnicas clínicas
radioterápicas y de imagen, sino también en las de radioprotección.
Las funciones de los físicos y técnicos están directamente relacionadas con la
optimización y la limitación de las dosis a los pacientes, como corresponsables de los
tratamientos, y con la limitación de la radiación de todo el personal que utiliza o circula
por la instalación, como responsables directos de velar por la protección radiológica en
esta.
4. Procesos y procedimientos en radioterapia
Los procedimientos de aplicación en las instalaciones de radioterapia están recogidos en
dos documentos: el reglamento de funcionamiento y el PGC de la instalación. Aunque
ambos tienen una intencionalidad diferente coinciden en el sentido de lograr el mejor
tratamiento para los pacientes con una mínima dosis al personal de operación y a la
población (v. cap. 25, apartado «6.1 Normativa específica de aplicación de la protección
radiológica en el ámbito operacional en las instalaciones y en los equipos de
radioterapia»).
Los procedimientos de aplicación en los departamentos radioterápicos tienen dos
ámbitos. Unos son de común aplicación y uso por ambos servicios, como aquellos que
exigen un trabajo próximo y común entre su personal. El segundo ámbito es el que
pertenece con exclusividad a cada uno de los servicios, y la responsabilidad es
prácticamente excluyente para el otro, dado el carácter específico de las tareas a
desarrollar. Los procedimientos del proceso radioterápico resultantes del sumatorio de
los procedimientos comunes y propios de cada servicio responden al flujo del trabajo
radioterápico que queda expresado en la figura 9-1, donde puede observarse la
especificidad de las tareas de cada grupo.
FIGURA 9-1 Etapas y desarrollo secuencial del proceso radioterápico. Entre paréntesis se indica el
servicio responsable e involucrado en la tarea correspondiente. ORT: servicio de oncología
radioterápica; RF: servicio de radiofísica y protección radiológica.

Fundamentalmente hay diez procesos o etapas en el tratamiento radioterápico:


1. Admisión.
2. Simulación.
3. Prescripción dosimétrica.
4. Planificación dosimétrica.
5. Aceptación médica.
6. Verificación experimental.
7. Documentación, informe dosimétrico, transmisión de datos y almacenamiento.
8. Tratamiento.
9. Seguimiento clínico y de enfermería.
10. Fin del tratamiento.
Cada una de estas etapas comprende una serie de tareas a las que están asociados sus
correspondientes procedimientos de ejecución.
Puede encontrarse información al respecto en el documento de 2012, Safety is no
accident, de la American Association for Radiation Oncology (ASTRO), disponible en
https://www.astro.org/uploadedFiles/Main_Site/Clinical_Practice/Patient_Safety/Blue_Book
y en los Reports 50, 62 y 83 de la International Commission on Radiation Units and
Measurements (ICRU).

4.1. Admisión del paciente


La admisión del paciente es el proceso por el cual se produce el ingreso de este en el
SOR.
• Quién: el oncólogo radioterápico es el responsable de este proceso que implica
decisiones clínicas propias de sus competencias. Las decisiones clínicas se
corresponden con el principio de justificación: el tratamiento con radiaciones debe
estar indicado de forma clara y precisa, y no debe de existir otro procedimiento
terapéutico alternativo que proporcione los mismos resultados clínicos, en los dos
aspectos del proceso curativo, que son la eliminación del tumor y la minimización de
los efectos secundarios.
• Cómo: la operativa organizativa supone el control y el registro de entrada de los
pacientes en el sistema de información o red radioterápica, tarea en la que están
involucrados médicos y administrativos, quienes vigilarán que los tiempos de espera
para que un paciente comience su proceso radioterápico desde que ha sido orientado al
tratamiento sean mínimos. Una vez finalizado el proceso de admisión es citado para el
siguiente proceso (simulación).
• Cuándo: el proceso se inicia cuando el paciente ingresa en el SOR, es admitido como
candidato a tratamiento radioterápico y es estudiado para determinar la adecuación
del tratamiento a su patología. Finaliza este proceso cuando el paciente dispone de la
citación para realizar la simulación.
• Dónde: el paciente ingresa para ser tratado en las instalaciones de radioterapia a través
del servicio de admisión del centro hospitalario y de la secretaría del SOR.

4.2. Simulación
El concepto de simulación radioterápica ha sufrido una evolución con el tiempo y con el
desarrollo científico y tecnológico. Este proceso, los equipos que utiliza para su
realización y los procedimientos asociados serán estudiados con detalle en la parte 4 de
este libro. En el pasado se entendía como simulación el proceso de definición del
tratamiento en el mismo momento en que se adquirían las imágenes para el estudio y la
planificación dosimétrica del tratamiento, en general a partir de una tomografía
computarizada (TC). En ese momento de la adquisición de las imágenes, en la misma
consola del equipo de TC se definía con todo detalle o se «simulaba» el tratamiento. Esta
es la razón por la que a este acto y a la TC se las denomina simulación y simulador-TC,
respectivamente.
Hoy en día, reconocido el hecho de que la TC no proporciona información suficiente
sobre la geometría y la extensión del tumor, el proceso de simulación comprende no sólo
la realización de una TC sino también de otras pruebas de imagen que aportan una
información complementaria muy importante sobre la geometría de la lesión y de su
entorno.
Las pruebas de imagen que configuran el proceso de simulación son la TC, la
resonancia magnética (RM), la tomografía por emisión de positrones (PET), la angiografía
digital y la ecografía.
El proceso técnico en el que se consideran todas ellas se denomina registro o fusión y
constituye una de las áreas de desarrollo de la tecnología más importantes en el
momento actual.
Es en esta fase cuando se inicia la optimización de la irradiación, al establecerse el
conjunto de pruebas diagnósticas y de imagen que permiten delimitar del modo más
preciso posible los límites del tumor y de los órganos de riesgo que lo circundan.
• Quién: las pruebas de TC las realizan generalmente los técnicos especialistas en
radioterapia, operadores del simulador-TC. Las pruebas de RM, angiografía o PET las
realizan los técnicos de imagen de radiodiagnóstico y medicina nuclear, que pese a
pertenecer a servicios distintos tienen que estar instruidos en las condiciones en que
deben realizarse las pruebas que ellos deben llevar a cabo y que la técnica
radioterápica demanda. Los técnicos dosimetristas del SRFPR son los receptores de
todas las pruebas de imagen y tienen como misión comprobar que han sido
correctamente realizadas, su fusión y el contorneo preliminar de las estructuras
anatómicas más evidentes (contorno externo del paciente, estructuras óseas, etc.), lo
cual, una vez ejecutado y supervisado por el radiofísico responsable, es transferido al
médico para su examen con el fin de proceder al delineado de las estructuras
tumorales y críticas, y la definición de la prescripción dosimétrica en los términos
antes descritos.
• Cómo: la realización de la simulación en el simulador-TC comprende no sólo la
realización de los estudios de imagen; es el momento en que se establecen las
condiciones geométricas del tratamiento. Para ello se elaboran los dispositivos de
inmovilización y referenciación (máscaras termoplásticas, colchones de vacío, etc.), de
manera que se garantice que esa posición en que han sido adquiridas las imágenes es
la misma que habrá que fijar en el momento del tratamiento. Las pruebas de imagen
adicionales que comprenden la simulación tendrán que realizarse también en las
mismas condiciones geométricas de la simulación-TC, utilizando los mismos sistemas
de fijación y simulación, cuando esto sea posible. Estos elementos de fijación y
referenciación son trasladados a las salas de tratamiento cuando este vaya a ser
iniciado, y se fijan a la mesa del acelerador en cada una de las sesiones que constituyan
el tratamiento (la mesa, obviamente, debe tener la misma geometría que la del
simulador-TC).
• Cuándo: este proceso comienza una vez que los médicos de la unidad asistencial
aprueban la indicación del tratamiento radioterápico para el paciente y solicitan la
realización de los estudios de imagen que permitirán conocer los datos necesarios para
la planificación dosimétrica. Finaliza cuando los datos de imagen son transferidos al
médico responsable.
• Dónde: el proceso se realiza en cada una de las instalaciones en que se encuentran los
equipos de imagen citados, los cuales están ubicados en las instalaciones de
radioterapia (simulador-TC), de radiodiagnóstico (RM, angiógrafos y ecógrafos) y de
medicina nuclear (PET).

4.3. Prescripción dosimétrica


La prescripción dosimétrica es el proceso por el cual se definen las condiciones que debe
cumplir el tratamiento para que sea eficaz en la cura de la enfermedad. Esto supone tanto
la definición geométrica de los volúmenes de las lesiones como las dosis absorbidas de
radiación a administrar.
Deben contemplarse aspectos que influyen en los volúmenes: movimiento de los
órganos, incertidumbre de la extensión tumoral y posible reducción de los volúmenes
una vez que el tratamiento ha sido iniciado.
De acuerdo con las dimensiones del tumor, su ubicación, la proximidad a órganos
críticos y, obviamente, su etiología, se establece la prescripción dosimétrica en un
proceso optimizador que busca compatibilizar la dosis adecuada para provocar la muerte
a todas las células tumorales, sin originar un deterioro funcional importante del resto de
los órganos y tejidos circundantes.
• Quién: es el médico quien tiene la responsabilidad de este proceso eminentemente
clínico.
• Cómo: el médico debe determinar cuantitativamente la dosis a administrar, tanto al
volumen tumoral como la dosis límite a recibir por los órganos y tejidos circundantes.
Esta determinación requiere la definición de los volúmenes del tumor y de los órganos
y zonas sanas periféricas en riesgo. Adicionalmente debe determinar de manera clara
las dosis que esos volúmenes tumorales tienen que recibir, además de lo que no han de
recibir las zonas sanas. La especificación de volúmenes y dosis deberá hacerse según
los criterios aceptados por la comunidad científica (ICRU, Reports 50, 62 y 83). La
prescripción debe contemplar, así mismo, el fraccionamiento con que va a realizarse el
tratamiento, el cual dependerá tanto de la radiosensibilidad del tumor como de la de
los órganos críticos. Este fraccionamiento tiene que establecer la dosis total, la dosis
por sesión y el espaciamiento de las sesiones. Esta fase del proceso comprende
también la definición de los controles del tratamiento a realizar, que incluyen
verificaciones por imagen del tratamiento, exámenes clínicos y pruebas analíticas.
• Cuándo: la prescripción dosimétrica se realiza una vez que toda la información
iconográfica (imágenes TC, RM y PET) está disponible y preparada para ser utilizada
en la delineación de los volúmenes implicados en el tratamiento.
• Dónde: la prescripción dosimétrica se realiza durante el acto de la consulta médica,
donde el oncólogo radioterapeuta atiende y explica al paciente el proceso que se va a
seguir.

4.4. Planificación dosimétrica


La planificación dosimétrica es el proceso por el que se calcula la distribución de dosis
absorbida resultado de la interacción de los haces de radiación proporcionados por las
máquinas de tratamiento con la materia constitutiva del paciente, para la consecución de
los objetivos establecidos en la prescripción dosimétrica.
• Quién: el trabajo es responsabilidad de los radiofísicos responsables, y puede ser
realizado bien por ellos mismos o bien por los técnicos dosimetristas bajo la
supervisión de los primeros.
• Cómo: la tarea de planificación comprende la selección de la técnica y de los haces de
tratamiento que satisfagan los requerimientos establecidos en la prescripción
dosimétrica. Esta tarea incluye un proceso de optimización, en el que el cálculo
dosimétrico se realiza mediante un bucle de aproximaciones sucesivas de prueba y
error hasta alcanzar la mejor aproximación a la prescripción dosimétrica demandada.
Una vez alcanzado el objetivo que más se aproxima a la prescripción dosimétrica, los
resultados numéricos y gráficos se envían al médico responsable para su aprobación.
De no satisfacerse la prescripción completamente por las posibles dificultades del
caso, se inicia un proceso de análisis y discusión entre el radiofísico y el médico, al
objeto de alcanzar la solución de compromiso más aproximada a lo óptimo.
• Cuándo: este proceso comienza una vez que están totalmente definidas la prescripción
y las imágenes de la planificación TC (modalidad de imagen utilizada para el cálculo),
y que los volúmenes del tumor y de los órganos críticos están completados y
delineados. Finalizada la planificación dosimétrica, su resultado es transmitido al
médico responsable para que proceda a la realización del siguiente proceso.
• Dónde: el trabajo de cálculo dosimétrico se realiza en las instalaciones donde están
ubicados los servidores y puestos de trabajo del sistema de planificación y cálculo
dosimétrico.

4.5. Aceptación médica


De no satisfacerse la prescripción completamente por las posibles dificultades del caso,
se inicia un proceso de análisis y discusión entre el radiofísico y el médico, con el fin de
alcanzar la solución de compromiso más adaptada a lo óptimo.
• Quién: de este proceso de análisis y discusión de los resultados dosimétricos y su
adaptación al caso clínico, en el que participan el médico y el físico responsables del
paciente, resulta una decisión que debe tomar el médico.
• Cómo: el proceso es consecuencia del examen de los resultados dosimétricos y su
adaptación al caso clínico, de acuerdo con la prescripción dosimétrica definida.
• Cuándo: este proceso se ejecuta una vez que el físico considera que la optimización de
sus cálculos ha alcanzado un máximo, y los traslada entonces al médico. Una vez
registrada la aceptación por parte del médico, este lo comunicará al SRFPR para que
prosiga con el siguiente proceso.
• Dónde: este examen se realiza en las estaciones de trabajo del sistema de planificación
dosimétrica, las cuales disponen de herramientas de análisis de los resultados
(histogramas dosis-volumen, representaciones bidimensionales o volumétricas de las
imágenes y de las isodosis, etc.).

4.6. Verificación experimental


La verificación dosimétrica constituye la garantía de que el tratamiento va a realizarse
según lo planificado. Debido a la imposibilidad de constatar de forma evidente e
inmediata que durante el tratamiento la dosis administrada al paciente es la que
realmente recibe en el curso del mismo, la dosis se administra basándose en unos
cálculos previos al tratamiento. Los cálculos dosimétricos comportan una configuración
de las características de las máquinas de tratamiento que son exportadas del sistema de
planificación dosimétrico a las máquinas, pero esto implica que una vez introducidos en
estas ya no se tiene mayor control sobre lo que realmente pueda suceder, más allá del
conocimiento que se tenga de la fiabilidad de las máquinas. Este control sólo podría
tenerse de forma plena si hubiera unos sistemas que permitieran medir y observar on line
el progreso de la administración de la dosis calculada durante las sesiones de
tratamiento.
• Quién: la verificación es responsabilidad del equipo del SRFPR y este es el que la
realiza. En ella participan los técnicos dosimetristas y el radiofísico encargado del caso.
• Cómo: las verificaciones pueden hacerse mediante cálculos redundantes o mediante la
reproducción experimental en condiciones casi reales de las características del
tratamiento. Las verificaciones tienen que ser visadas tanto por quienes las realizan
como por quienes las supervisan.
• Cuándo: debido a la ausencia de unos procedimientos que comprendan el control
inmediato de todos los detalles del proceso de administración de la dosis, se recurre a
verificar previamente que lo que vaya a «hacerse» tenga las máximas garantías de que
se va a producir de forma fiel a lo planificado y sin errores.
• Dónde: las verificaciones suelen ser de dos tipos, en función de la complejidad de la
técnica de tratamiento. Como una mayor complejidad suele implicar una mayor
demanda de las prestaciones de las máquinas, los controles asociados tendrán que ser
también mayores. Según esto, las técnicas menos complejas suelen verificarse
mediante controles de calidad realizados de forma periódica sobre las máquinas y los
sistemas de planificación. Además, deben realizarse cálculos redundantes de la
planificación dosimétrica mediante sistemas de cálculo dosimétricos independientes
de los considerados principales y habitualmente utilizados. Los procedimientos de
mayor complejidad suponen la ejecución del tratamiento sobre un maniquí, utilizando
la técnica y los campos que se han calculado y aceptado como constitutivos del
tratamiento del paciente. Esto supone la ocupación de la máquina de tratamiento para
cada uno de los casos, que a su vez han debido ser planificados sobre el maniquí como
si de un paciente se tratara.
4.7. Documentación e informe dosimétrico, transmisión de
datos y almacenamiento
La organización de los propios procesos o tareas requiere el control de lo actuado, lo cual
sólo puede hacerse basándose en el registro y la documentación de los resultados
alcanzados. En radioterapia, como acto clínico y además sujeto a la normativa
radioprotectora, es obligatorio documentar, registrar y almacenar la planificación
dosimétrica, los resultados de esta objetivados en un informe dosimétrico y la
exportación de las condiciones de la planificación a las máquinas de tratamiento para su
ejecución.
• Quién: el responsable de realizar estas tareas es el radiofísico encargado del paciente.
• Cómo: la documentación se va a produciendo a medida que se realizan las tareas, las
cuales comprenden la planificación dosimétrica realizada y el registro de la aceptación
médica, el informe dosimétrico de la planificación aceptada y su incorporación a la
historia clínica del paciente, la exportación de los datos de la configuración de los
parámetros de la máquina de tratamiento para la administración de la configuración
dosimétrica planificada y el almacenamiento de todo ello para su uso clínico en el
seguimiento del paciente o en la revisión retrospectiva de lo actuado.
• Cuándo: todas las tareas de esta etapa se realizan después de haber verificado la
viabilidad práctica de la técnica de tratamiento aceptada por el médico y la no
existencia de problemas de carácter técnico. La finalización de estas tareas da lugar a la
citación del paciente a tratamiento, lo cual en general se realiza de manera automática,
si no existen otras restricciones, anotando el día y la hora libres en la agenda de
actividad de la máquina para la que se haya realizado la planificación.
• Dónde: estas tareas se realizan en los puestos de trabajo de planificación dosimétrica,
de conexión con el sistema de información hospitalario y de la red radioterápica, que
en ciertas tecnologías están unificados.

4.8. Tratamiento
La ejecución del tratamiento radioterápico es el objetivo al que conducen todos los
procesos previos, y a su vez consta de dos etapas bien diferenciadas. La primera es la
denominada puesta en tratamiento, que incluye los procedimientos a seguir para la
primera sesión de tratamiento, y la segunda comprende los que hay que seguir en todas y
cada una de las sesiones sucesivas hasta completar el tratamiento. En el tratamiento debe
comprobarse que todo se ajusta a lo planificado.
• Quién: los responsables de la realización de las tareas son los médicos, los físicos y los
técnicos operadores de radioterapia.
• Cómo: en la puesta en tratamiento se ha de comprobar:
• La carga del fichero correspondiente en la máquina de tratamiento, con la técnica a
aplicar al paciente.
• La correspondencia entre el paciente real y el fichero de la máquina que contiene las
características de su tratamiento.
• La colocación y la inmovilización del paciente según lo previsto en la simulación y
requerido en la planificación dosimétrica.
• La definición del tipo y el plan de controles por imagen para verificar el correcto
posicionamiento del paciente.
• La realización de dicho control por imagen.
• La definición del plan de controles dosimétricos a seguir durante el tratamiento:
dosimetría in vivo.
• La disposición de la instrumentación dosimétrica necesaria para el control
dosimétrico.
• La definición de otros controles que deben seguirse en el curso del tratamiento:
clínicos, analíticos, etc.
• La definición de las desviaciones máximas admisibles resultantes de esos controles,
por encima de las cuales deberán dispararse las alertas de intervención.
• La autorización definitiva del tratamiento.
• La administración de la sesión de tratamiento.
• El registro de los valores de las desviaciones respecto a lo planificado.
• El registro de los valores de los controles de dosimetría in vivo.
• El plan de citaciones sucesivas hasta completar el tratamiento.
• El registro de la realización de la sesión de tratamiento.
Asimismo, en las sesiones sucesivas hay que comprobar:
• La carga del fichero correspondiente con la técnica de tratamiento a aplicar al
paciente.
• La identificación del paciente y su correspondencia con el fichero de tratamiento
dispuesto para ser administrado por la máquina.
• La colocación según lo previsto en la simulación y requerido en la planificación
dosimétrica.
• La disposición de la instrumentación dosimétrica necesaria para el control de dosis.
• La realización de los controles por la imagen para verificar la corrección de la
colocación e inmovilización del paciente.
• El registro de las desviaciones geométricas diarias respecto a lo planificado.
• La comprobación de que las desviaciones no superan los límites de tolerancias
máximas admitidos y el aviso al responsable médico o físico si esto no fuera así.
• La realización de los controles de dosimetría in vivo u otros que se hubiera
establecido, y el registro de sus valores.
• La administración de la sesión de tratamiento.
• El registro de la realización de la sesión de tratamiento.
• Cuándo: la administración del tratamiento se hará de acuerdo con lo programado en la
agenda de la máquina en que vaya a realizarse el tratamiento, que deberá estar en
consonancia con la citación recibida por el paciente.
• Dónde: todas estas tareas se realizan en las salas de las máquinas de irradiación.

4.9. Seguimiento clínico y de enfermería


Mientras dure el tratamiento, el paciente será observado clínicamente y atendido por los
servicios de enfermería de acuerdo con las características del caso clínico.
• Quién: el seguimiento de la evolución del tratamiento deberá realizarlo el médico
responsable o el personal de enfermería.
• Cómo: el seguimiento se desarrollará de acuerdo con los protocolos definidos para cada
caso clínico, registrando los aspectos significativos de la evolución del paciente a causa
del tratamiento.
• Cuándo: el plan de seguimiento será establecido con la periodicidad que establezcan el
médico responsable (habitualmente semanal) o el personal de enfermería según los
protocolos establecidos.
• Dónde: en las consultas respectivas del médico responsable y de enfermería.

4.10. Fin del tratamiento


Una vez finalizadas todas las sesiones que integran el tratamiento, el paciente recibirá un
informe que recoja las características y el desarrollo de este, y que establezca el programa
de revisiones clínicas periódicas. Deberá figurar el informe dosimétrico final que dé
cuenta de las variaciones que hayan podido producirse a lo largo del tratamiento y su
adecuación a la prescripción dosimétrica inicial. Este informe deberá incorporarse a la
historia clínica del paciente junto con el informe de la planificación aceptada
inicialmente.
• Quién: los profesionales involucrados en esta tarea son los médicos, los físicos y los
técnicos.
• Cómo: cada uno de estos profesionales informará al paciente o registrará el fin del
tratamiento en los archivos que estén establecidos.
• Cuándo: el final del tratamiento supone el fin de las sesiones de tratamiento del
paciente en la unidad de tratamiento. Esto deberá producirse según lo programado.
Cualquier alteración del programa y de los tiempos del tratamiento deberá registrarse
como una incidencia.
• Dónde: el final del tratamiento se produce en la máquina de tratamiento, y los registros
finales son anotados en sus ficheros correspondientes (servidores, bases de datos, etc.)
por cada profesional involucrado.
5. Resumen
Se ha introducido una terminología y unas definiciones tomadas del mundo de la
empresa y la gestión, con el objeto de evitar ambigüedades en el entendimiento de lo que
es un proceso o un procedimiento.
La conformación de una estructura organizativa en radioterapia es una tarea esencial
para lograr un funcionamiento eficiente, eficaz y seguro, tanto para los pacientes como
para los profesionales participantes en la actividad.
En este capítulo se han descrito las diferentes etapas o procesos en que se divide un
tratamiento radioterápico, con especificación de las respuestas sobre quién está
involucrado o es responsable de la tarea, cómo debe actuarse para realizar dicha tarea,
cuándo corresponde realizarla y dónde se produce o lleva a cabo.
La estructura descrita es fruto del trabajo real ordinario. Otros autores llegan a
analizarla integrando o desglosando los procesos, pero fundamentalmente cualquier
profesional de la radioterapia se encontrará, ordenados de una u otra forma, todos los
procesos aquí descritos.
Se ha mencionado que estos procesos y procedimientos están o pueden estar
relacionados con la acreditación y el funcionamiento según las normas ISO, pero este
aspecto no ha sido el tema de este capítulo, no por carecer de importancia, sino porque
constituye tiene una entidad lo suficientemente importante como para requerir un
meticuloso abordaje, que está fuera de los objetivos de esta obra. De cualquier forma,
siempre habrá que considerar esta opción de trabajo en el entorno ISO, dada la potencial
ayuda que supone para la buena organización de una instalación tan compleja como la
radioterápica.
Bibliografía
American Association for Radiation Oncology (ASTRO). Safety is no accident. 2012. Disponible en:
https://www.astro.org/uploadedFiles/Main_Site/Clinical_Practice/Patient_Safety/Blue_Book/SafetyisnoAccident.pdf
International Atomic Energy Agency (IAEA). El objetivo y rol de la radioterapia. Disponible en:
https://rpop.iaea.org/RPOP/RPoP/Content-es/AdditionalResources/Training/1_TrainingMaterial/Radiotherapy.htm
International Commission on Radiation Units and Measurements (ICRU). Prescribing, recording and reporting photon
beam therapy (Report 50). Bethesda, MD, USA: Oxford University Press; 1993.
International Commission on Radiation Units and Measurements (ICRU). Prescribing, recording and reporting photon
beam therapy (Report 62). Bethesda, MD, USA: Oxford University Press; 1992.
International Commission on Radiation Units and Measurements (ICRU). Prescribing, recording, and reporting intensity-
modulated photon-beam therapy (IMRT) (Report 83). Bethesda, MD, USA: Oxford University Press; 2010.
Real Decreto 1566/1998 por el que se establecen los criterios de calidad en radioterapia. Disponible en:
http://www.boe.es/boe/dias/1998/08/28/pdfs/A29383-29394.pdf
Siochi RA, Balter P, Bloch CD, Bushe HS, Mayo CS, Curran BH, et al. Information technology resource management in
radiation oncology. J Appl Clin Med Phys. 2009;10:3116: Disponible en:
https://www.aapm.org/pubs/reports/RPT_201Preliminary.pdf.
C AP Í T U L O 1 0
Dosimetría física en radioterapia externa
Patricia Sánchez Rubio

ÍNDICE
1. Introducción 140
2. Haces de fotones y electrones. Aspectos físicos 140
2.1. Ley del inverso del cuadrado de la distancia para
fotones 140
2.2. Fuente efectiva y fuente virtual para electrones 141
2.3. Penetración de haces de fotones y electrones en un
paciente o un maniquí 141
2.4. Razones de dosis absorbida fuera de eje (OAR: off-
axis ratios) y perfiles de dosis 145
3. Medida de la dosis absorbida 146
3.1. Equilibrio de partículas cargadas 146
3.2. Principio de Bragg-Gray. Teoría de la cavidad 148
3.3. Factores de perturbación 148
4. Equipamiento 149
4.1. Propiedades de los dosímetros 149
4.2. Sistemas de dosimetría basados en cámaras de
ionización 150
4.3. Maniquíes y otros sistemas de dosimetría 153
5. Determinación de la dosis en condiciones de referencia: calibración de haces de
megavoltaje 155
5.1. Formalismo basado en dosis absorbida en agua 155
5.2. Fotones de alta energía 156
5.3. Electrones de alta energía 157
5.4. Laboratorios de calibración. Patrones primarios 158
6. Resumen 159
Bibliografía 160
1. Introducción
La dosimetría física consiste en la determinación de la dosis absorbida en un punto y la
caracterización de las distribuciones dosimétricas producidas por las unidades de
radiación, medidas en condiciones ideales y utilizando maniquíes homogéneos y
regulares.
El objetivo de este capítulo es conocer el equipamiento y el formalismo empleados
para la determinación de la dosis absorbida en agua en haces de fotones y electrones de
alta energía, así como los parámetros físicos que caracterizan dichos haces.
2. Haces de fotones y electrones. Aspectos físicos
2.1. Ley del inverso del cuadrado de la distancia para
fotones
En general, la fuente emisora de fotones se considera puntual y la forma del haz
producido es divergente. Si se considera la fuente en el vacío (no se produce ninguna
interacción), la fluencia, Φ, es inversamente proporcional al cuadro de la distancia desde
la fuente (fig. 10-1):

[1]

FIGURA 10-1 Ley del inverso del cuadrado de la distancia. La tasa de fluencia en el vacío Φa y Φb
es inversamente proporcional al área de las superficies A y B, y por consiguiente a la distancia a la
fuente fa y fb. DFS: distancia fuente-superficie.

donde a y b son el tamaño del lado del campo a las distancias fa y fb, respectivamente.
Puesto que en un punto P en aire, la exposición en aire, X, el kerma en aire en el seno
de aire, (Kaire )aire , y la dosis absorbida en aire en un pequeño volumen del medio,
(Daire )me d, son proporcionales a la fluencia en el mismo punto, se puede enunciar:

[2]

Si los tratamientos reales de radioterapia (condiciones no ideales como, por ejemplo,


que la fuente emisora no es puntual) se realizan a distintas distancias foco-superficie
(DFS), es importante determinar la posición del foco del haz de radiación, denominada
fuente virtual, que puede no coincidir con el «foco nominal» o centro geométrico del
blanco, respecto del cual se establece la distancia geométrica al isocentro.
En el caso de los haces de fotones, la diferencia entre la posición del foco nominal y el
virtual suele ser despreciable, pero a la vez que se verifica que se cumple la ley del
inverso del cuadrado de la distancia puede determinarse la posición de la fuente. Para
ello, se determina la dosis absorbida en aire a distintas distancias nominales. Se
representa la distancia en el eje de abscisas y el inverso de la raíz cuadrada de la dosis
absorbida en el eje de ordenadas. La gráfica debería ser una recta cuya intersección con el
eje x será la distancia de la fuente virtual al foco nominal:

[3]

Si f0 >0, la fuente virtual está más cerca del paciente y la distancia de tratamiento será
menor que la distancia nominal. Si f0 <0, la fuente virtual está más lejos del paciente y la
distancia de tratamiento será mayor que la distancia nominal.
Así pues, con haces reales de tratamiento de fotones, no se cumple exactamente la ley
del inverso cuadrado de la distancia si no se corrige por el desplazamiento de la fuente.

2.2. Fuente efectiva y fuente virtual para electrones


A diferencia de los fotones, que tienen como fuente u origen del haz un punto situado en
el centro del blanco del acelerador, un haz de electrones aparenta tener un foco efectivo
que no coincide con la ventana de salida ni con el filtro dispersor. La posición de esta
fuente o foco efectivo varía con la energía del haz y también con el tamaño del campo,
debido a que los distintos elementos del acelerador que intervienen en la generación y la
colimación del haz actúan como materiales dispersores modificando la dispersión lateral
y angular de los electrones que forman el haz.
Puede definirse una fuente efectiva extensa, situada en el aire a una cierta distancia de la
superficie de entrada del maniquí y que produce la misma distribución de fluencia de
electrones que el haz real. Esta fuente efectiva es poco dependiente de la geometría del
haz, pero sí lo es de la energía y de elementos modificadores.
Cuando se pretende calcular la dosis absorbida en tratamientos realizados a distancias
diferentes de la de referencia (100 cm), es más práctico aproximar la fuente efectiva
extensa a una fuente puntual virtual. Esta fuente virtual está situada a mayor distancia de
la superficie del maniquí que la fuente efectiva y puede determinarse de manera análoga
a la de los fotones. Debe hallarse para todas las energías de electrones en uso para los
distintos aplicadores.
De igual forma que para los haces reales de fotones, los de electrones no cumplen
exactamente la ley del inverso cuadrado de la distancia si no se corrige por el
desplazamiento de la fuente.

2.3. Penetración de haces de fotones y electrones en un


paciente o un maniquí
La propagación de un haz de radiación en aire o en el vacío está gobernada por la ley del
inverso del cuadrado de la distancia. Sin embargo, cuando se propaga a través de un
maniquí o un paciente, también hay que tener en cuenta la atenuación y la dispersión del
haz en el interior de estos.
Puesto que una medida directa de la distribución de dosis en el interior del paciente es
esencialmente imposible, para conocer la distribución de dosis en el volumen irradiado
de manera precisa y exacta se emplean funciones que relacionan la dosis en cualquier
punto arbitrario del paciente con la dosis conocida en un punto de calibración (o
referencia) del haz en un maniquí.

Porcentaje de dosis en profundidad: geometría distancia fuente-


superficie
El porcentaje de dosis en profundidad (PDD) representa la variación de la dosis
absorbida con la distancia y los fenómenos de atenuación y dispersión del haz en un
medio diferente del aire. Se define como el cociente, expresado en porcentaje, de la dosis
absorbida a una profundidad, z, respecto a la dosis absorbida a la profundidad del
máximo, zmax, a lo largo del eje central del haz (fig. 10-2A). Es una función que depende de
la energía (hυ), de la DFS (fa ), del tamaño de campo en la superficie (A) y de la
profundidad en el medio (z):

[4]
FIGURA 10-2 A) Geometría distancia fuente-superficie (DFS) para realizar la medida de porcentaje
de dosis en profundidad (PDD). B y C) Geometría distancia fuente-eje (DFE) para realizar la medida
de la razón tejido-aire (TAR) y la razón tejido-maniquí (TPR).

En las figuras 10-3 y 10-4 se representan varios PDD para distintas energías de fotones
y electrones, obtenidos en agua para diferentes tamaños de campo a DFS de 100 cm.
FIGURA 10-3 A) Porcentajes de dosis en profundidad (PDD) de haces de fotones de 6 MV y 15 MV,
medidos a DFS = 100 cm y para un tamaño de campo en la superficie de 10 cm × 10 cm. B)
Variación del PDD de un haz de 6 MV para distintos tamaños de campo. DFS = 100 cm. (Datos del
Hospital Universitario Puerta de Hierro Majadahonda, Madrid).
FIGURA 10-4 A) Porcentajes de dosis en profundidad (PDD) para haces de electrones de distintas
energías, medidos a DFS = 100 cm para un aplicador de 25 cm × 25 cm. B) Variación del PDD de
un haz de 18 MeV para dos tamaños de campo a DFS = 100 cm. (Datos del Hospital Universitario Puerta
de Hierro Majadahonda, Madrid).

Analizando los PDD, tanto de fotones como de electrones, se observa que la


profundidad del máximo depende de la energía. La zona entre la superficie y el máximo
es lo que se denomina «región de acumulación» o buildup, ya que es donde se produce la
acumulación de partículas cargadas producidas por los fotones/electrones incidentes.
Para fotones:
• Para una misma energía, la profundidad del máximo disminuye al aumentar el tamaño
del campo, debido a la mayor influencia de la radiación secundaria producida en el
sistema de colimación, las cámaras monitoras, etc.
• Al aumentar la energía del haz incidente, mayor es el alcance de las partículas cargadas
y, por tanto, mayor es la profundidad donde se produce el máximo de dosis absorbida.
La dosis absorbida en superficie disminuye al aumentar la energía, y puede llegarse a
una reducción de un 30% para las energías más altas. Por este motivo, la dosis
absorbida en la piel es menor en los tratamientos con fotones de alta energía que en la
radiación producida por el 60Co.
• Si aumenta la DFS, el PDD aumenta.
• A partir de la profundidad del máximo, la forma del PDD es prácticamente exponencial
y el gradiente es mayor cuando la energía es menor.
Para electrones:
• La dosis absorbida en superficie, establecida por convenio en 0,5 mm, varía con la
energía entre el 80% y el 93%. A partir de la superficie, la dosis absorbida comienza a
crecer, debido a la deflexión angular que experimentan los electrones al entrar en el
medio, lo que provoca que la fluencia de electrones aumente con la profundidad hasta
llegar a la zona del máximo; a partir de aquí, los electrones comienzan a «escaparse»
del haz y la fluencia disminuye bruscamente. En la parte final de la curva se encuentra
una zona plana que corresponde a la radiación de frenado producida por los
electrones.
• Dependencia de la energía: al aumentar la energía del haz de electrones aumenta el
porcentaje de dosis absorbida en superficie respecto del máximo, la profundidad del
máximo y el porcentaje de radiación de frenado, mientras que disminuye la pendiente
de la zona de caída de dosis absorbida.
• Dependencia del tamaño de campo: la variación con el tamaño de campo es poco
significativa para campos cuyo tamaño sea lo suficientemente grande como para que se
produzca un equilibrio en la dispersión de los electrones en el eje. Para campos
pequeños, son más los electrones dispersados fuera del eje que los que entran, y por
tanto disminuyen la fluencia y la dosis absorbida en el eje.
• Dependencia de la distancia a la fuente (fig. 10-5A): cuando la distancia a la fuente
aumenta, la profundidad del máximo también aumenta y disminuye la dosis absorbida
en superficie.
• Alcances: a diferencia de los fotones, cuya atenuación es exponencial, las partículas
cargadas pierden energía de manera casi continua a lo largo de su recorrido en un
medio material, por lo que tienen un alcance finito y bien definido, denominado
alcance con aproximación de frenado continuo (CSDA, continuous slowing down
approximation). El CSDA representa el camino medio recorrido por la partícula antes de
llegar al reposo, y es mayor que la profundidad de penetración debido a las deflexiones
angulares que sufren estas partículas en su trayectoria en el medio. Así, es una
magnitud que no proporciona mucha información respecto del poder de penetración
del electrón, y por ello, para caracterizar los haces de electrones se emplean otros
parámetros que se obtienen a partir del PDD (fig. 10-5B):
• Alcance máximo (Rmax): profundidad en la que la cola de la curva del PDD encuentra
la extrapolación de la zona de radiación de frenado. Corresponde a la máxima
penetración del haz de electrones en el medio.
• Alcance práctico (Rp): profundidad en la que la tangente a la parte de alto gradiente
de la curva PDD corta la extrapolación de la zona de la curva correspondiente a la
radiación de frenado. Representa aquellos electrones que han atravesado el material
con la mínima desviación por dispersión angular.
• Alcance 50% (R50): profundidad del 50% de la dosis absorbida, por detrás de la
profundidad del máximo. Se emplea como indicador de la calidad de un haz de
electrones.
• Alcance 90% (R90): profundidad del 90% de la dosis absorbida por detrás de la
profundidad del máximo.
FIGURA 10-5 A) Variación del porcentaje de dosis en profundidad (PDD) de un haz de electrones
de 9 MeV con la DFS para un aplicador de 15 cm × 15 cm. B) Caracterización de los parámetros
que definen el alcance de electrones de energía nominal 15 MeV a partir del PDD medido a
DFS = 100 cm en un campo de 25 cm × 25 cm. (Datos del Hospital Universitario Puerta de Hierro
Majadahonda, Madrid).

Tissue-phantom ratio (TPR), tissue-maximum ratio (TMR), tissue-air ratio


(TAR): Geometría distancia fuente-eje (DFE)
Puesto que la mayoría de los tratamientos que se imparten son isocéntricos, es decir, a
distancia fuente-eje (DFE) constante, los parámetros empleados para los cálculos
dosimétricos son los siguientes: razón tejido-aire (TAR, tissue-air ratio), razón tejido-
maniquí (TPR, tissue- phantom ratio) y razón tejido-máximo (TMR, tissue-maximum ratio).

Razón tejido-aire (TAR, tissue-air ratio)


Se emplea para haces de 60Co y en algunos sistemas de cálculo. El TAR (z, AP, hυ) se
define como el cociente entre la dosis en un punto P situado en el eje central sobre el
maniquí, DP, y la dosis absorbida en aire en el mismo punto P, Daire,P, en un volumen de
material suficiente para llegar a conseguir el equilibrio electrónico (v. fig. 10-2B y C):

[5]

donde AP es el tamaño de campo definido a la profundidad z.

Razón tejido-maniquí (TPR, tissue-phantom ratio) y razón tejido-máximo


(TMR, tissue-maximum ratio)
Se emplea para haces de megavoltaje. En lugar del TAR se emplea el TPR. Se define como
el cociente entre la dosis en un maniquí en un punto arbitrario P sobre el eje central del
haz, DP, y la dosis en un maniquí a una profundidad de referencia zref sobre el eje del haz
(v. fig. 10-2C):

[6]

Si la profundidad de referencia (zref ) coincide con la del máximo (zmax) de dosis


absorbida para una energía dada, la función se denomina razón tejido-máximo (TMR). El
TPR, para un campo de 10 × 10 cm2 y profundidades de 10 y 20 cm (TPR20,10), se define
como el índice de calidad para un haz de fotones.

2.4.. Razones de dosis absorbida fuera de eje (OAR: off-axis


ratios) y perfiles de dosis
Las distribuciones de dosis a lo largo del eje central del haz son sólo una parte de la
información necesaria para realizar una descripción exacta de la dosis en el interior del
paciente. Los perfiles medidos perpendicularmente al eje del haz a una determinada
profundidad en un maniquí proporcionan la distribución de dosis fuera del eje central.
Las profundidades de medida habituales son la del máximo, zmax, y a 10 cm, para verificar
la conformidad con las especificaciones del fabricante, y otras profundidades adicionales
requeridas por el sistema de planificación.

Razones de dosis absorbida fuera de eje


Se define como el cociente entre la dosis absorbida en un punto fuera de eje y la dosis
absorbida en el eje central del haz a la misma profundidad en el maniquí. La
representación gráfica del OAR en función de la distancia al eje central se denomina
perfil de dosis.

Perfiles
La forma de los perfiles depende de la energía y de la forma del filtro aplanador para
haces de fotones, y del filtro dispersor y la distancia entre el final del aplicador y la
superficie del medio para haces de electrones (fig. 10-6A). Se representan en forma de
curvas de isodosis normalizados al valor de dosis absorbida en el eje del haz para una
determinada profundidad. En un perfil se distingue (fig. 10-6B):
• Región central: representa la parte central del perfil que se extiende desde el centro del
haz hasta 1-1,5 cm del borde del campo geométrico del haz. El tamaño de campo
geométrico, indicado por el campo de luz, debe concordar con el tamaño de campo de
radiación definido por la isodosis del 50%.
• Penumbra: se define como la distancia, en milímetros, comprendida entre el 80% y el
20% de la dosis absorbida en el eje del haz. Depende de la energía del haz, el tamaño
finito de la fuente, la DFS, la distancia fuente-colimador y la profundidad a la que se
mida.
FIGURA 10-6 A) Izquierda: distribuciones de dosis absorbida en el eje transversal para las
energías de fotones de 6 MV y 15 MV de un acelerador lineal Varian 2100, medidos a DFS = 100 cm
para un tamaño de campo de 20 cm × 20 cm y a una profundidad de 10 cm. Derecha: distribución
de dosis absorbida en el eje transversal para un haz de 6 MV de una unidad de tomoterapia, medido
a DFS = 85 cm para un tamaño de campo de 40 cm × 5 cm y a una profundidad de 10 cm. Se
aprecia cómo la ausencia de filtro aplanador en la unidad de tomoterapia modifica la forma del perfil.
B) Izquierda: distribuciones de dosis absorbida en el eje transversal al haz para las energías de
electrones de 6 MeV y 18 MeV, medidos a DFE = 100 cm para un tamaño de campo de
20 cm × 20 cm y a una profundidad de 5 cm. Derecha: definición de los parámetros que
caracterizan un haz de radiación obtenidos a partir del perfil.

Para que un haz de radiación pueda usarse con fines terapéuticos, este debe tener una
distribución de dosis absorbida uniforme en un gran porcentaje del campo de radiación
para aceleradores no de última generación (en los nuevos aceleradores no se busca la
homogeneidad, aunque sí la simetría, tratando con ello, entre otras cosas, aumentar la
tasa de dosis a costa de eliminar el filtro aplanador). Los parámetros empleados para
cuantificar la uniformidad de un haz son la simetría y la homogeneidad, uniformidad o
planitud.
La simetría: permite evaluar la correcta alineación y el adecuado posicionamiento de
distintos componentes del cabezal respecto del eje del haz de radiación. Se define como
la variación porcentual máxima de la dosis entre dos puntos equidistantes (izquierdo y
derecho) del eje central dentro del 80% del campo. Su valor no es muy dependiente de la
profundidad a la que se adquiere el perfil.
La homogeneidad, uniformidad o planitud (H): se define como la variación porcentual
máxima de la dosis absorbida dentro de la región interior delimitada por el 80% del
tamaño de campo de radiación:

[7]

Su valor depende del tamaño del campo y de la profundidad de la medida. Debe ser
menor del 3% medido (para aceleradores no de última generación) en un maniquí de
agua a 10 cm de profundidad y DFS 100 cm para el mayor tamaño de campo disponible
(habitualmente 40 × 40 cm2). Sin embargo, si se cumple dicha especificación, los perfiles
medidos en zmax presentarán una «sobreplanitud», que se manifestará como unos
«cuernos» en los extremos, y un defecto de homogeneidad para profundidades más allá
de 10 cm. Este efecto se debe a la menor energía efectiva del haz fuera del eje comparada
con la del eje central, debido a la presencia del filtro aplanador en haces de fotones (v.
fig. 10-6B).
3. Medida de la dosis absorbida
3.1. Equilibrio de partículas cargadas
En radioterapia, la dosis absorbida se calcula en un punto a una determinada
profundidad. La profundidad a la que se encuentra dicho punto es importante, ya que en
cada punto del material, la fluencia, debida a las partículas primarias del haz incidente y
a las partículas secundarias generadas en el propio material, depende de los
correspondientes alcances en el material y de la penetración que previamente hubiera
alcanzado la radiación original. Para puntos superficiales, la fluencia de partículas
secundarias es poco importante, pero a medida que se consideran puntos a mayor
profundidad, se produce un mayor número de interacciones y por tanto aumenta la
aparición de partículas secundarias y la desaparición de las primarias, hasta un punto en
que el decreciente número de partículas primarias es incapaz de mantener ese
crecimiento. Este punto representa un máximo relativo para la fluencia, y a partir de él,
decaerá de manera continua. La profundidad de este máximo depende de la naturaleza
de las partículas primarias de que se trate. Para los fotones, los secundarios se acumulan
a grandes profundidades en comparación con el recorrido libre medio (1/µ) del fotón
primario, mientras que los electrones se acumulan a profundidades del mismo orden que
su alcance (r).
En un volumen de interés existe un equilibrio de partículas cargadas (CPE, charged
particle equilibrium) si las energías, el número y las direcciones de las partículas son
constantes a través de dicho volumen (fig. 10-7A). En particular, se dice que existe CPE si
las sumas de las energías que entran y abandonan tal volumen son iguales. Esta
definición se refiere a una situación ideal. No obstante, si el recorrido libre medio (1/µ)
de las partículas no cargadas es mucho mayor que el alcance máximo r de las partículas
cargadas que liberan energía, se obtiene un CPE aproximado para los puntos situados a
profundidades mayores al alcance máximo de las partículas cargadas. En esta situación
se verifica que la dosis es igual al kerma de colisión:

[8]
FIGURA 10-7 A) En el volumen V existe un equilibrio de partículas cargadas (CPE), ya que el
número, las direcciones y las energías (T) de las partículas que atraviesan dicho volumen son
constantes. B) Variación de la dosis absorbida (D) y el kerma (K) con la profundidad. En este caso,
las pérdidas radiativas son importantes. El equilibrio transitorio de partículas cargadas (TCPE) tiene
lugar para profundidades mayores al alcance máximo de las partículas cargadas.

En la práctica se recurre a lo que se llama equilibrio transitorio de partículas cargadas


(TCPE, transitory charged particle equilibrium), que son aquellos puntos en los que la dosis
es proporcional a Kcol, con una constante de proporcionalidad (β) mayor que uno:

[9]
La relación entre la dosis, D, y el kerma, K, se muestra en la figura 10-7B para el caso
general en que el kerma de radiación no sea cero. El kerma toma su valor máximo en la
superficie (K0) y se atenúa exponencialmente con la profundidad, como se indica
mediante la curva K. El máximo de dosis para un haz ideal, que no estuviera contaminado
por partículas cargadas emitidas por la fuente de radiación o generadas en la interacción
de las partículas no cargadas con el medio, se encontraría en el punto en que la curva D
corta la curva Kcol, pero debido a esa contaminación el máximo se desplaza hacia la
superficie y no puede suponerse que D = Kcol. Antes de que las curvas D y Kcol se corten,
β = D/Kcol <1; para profundidades mayores que el alcance máximo de los electrones
existe TCPE, de manera que β = D/Kcol >1 y la pendiente de la curva D es paralela a la de
las curvas K y Kcol.
De todo lo anterior puede concluirse que la profundidad elegida para realizar una
medida de dosis debe ser aquella en la que exista TCPE.

3.2. Principio de Bragg-Gray. Teoría de la cavidad


En el capítulo 3, apartado 3.3, «Magnitudes dosimétricas», se ha demostrado que a partir
de la exposición es posible obtener el kerma de colisión, y si además existen condiciones
de equilibrio electrónico, se tendría una medida de la dosis. Sin embargo, este
procedimiento para calcular la dosis a partir de la exposición tiene ciertas limitaciones:
• Sólo permite calcular la dosis para rayos X y radiación gamma en un medio que sea
aire, ya que la definición de exposición únicamente es válida para este tipo de radiación
y este medio.
• No puede utilizarse para haces de fotones de energía superior a 3 MeV.
• No es válido si no existe la condición de equilibrio electrónico.
La teoría de la cavidad, introducida por Bragg en 1912 y establecida definitivamente
por Gray en 1928 y 1936, relaciona la dosis absorbida en un medio sensible a la radiación
(habitualmente gas) con la dosis absorbida en el medio que la rodea (fig. 10-8). Las
condiciones para que se satisfaga la teoría de Bragg-Gray son:
• El tamaño de la cavidad debe ser pequeño en comparación con el alcance de las
partículas cargadas que inciden sobre ella, para que su presencia no perturbe la
fluencia de partículas cargadas que habría en el medio si no existiera dicha cavidad.
Esta condición implica que la fluencia de partículas cargadas tiene que ser la misma
tanto en la cavidad como en el medio que la rodea, lo cual sólo se cumple bajo la
existencia de CPE.
• La dosis absorbida en la cavidad se debe enteramente a las partículas cargadas que la
atraviesan. Es decir, se supone que no se produce ninguna interacción entre las
partículas cargadas y los átomos del gas de la cavidad, por lo que la deposición de
energía proviene exclusivamente de las partículas cargadas liberadas fuera de la
cavidad.
FIGURA 10-8 La teoría de Bragg-Gray permite relacionar la dosis absorbida en el punto P, medida
por un detector sensible a la radiación (cavidad de gas representada por la zona punteada), con la
dosis absorbida en el mismo punto en el medio m.

Bajo los supuestos anteriores, se cumple la siguiente relación, conocida como teoría de
Bragg-Gray:

[10]

donde Dm es la dosis absorbida en el medio m (en ausencia de la cavidad), Q/m es la

carga de ionización de un signo producida por unidad de masa de la cavidad, es la


energía media disipada por término medio por las partículas cargadas para crear un par
ion-electrón en el gas, por unidad de carga eléctrica elemental, de manera que el

producto es la energía absorbida por unidad de masa en la cavidad del gas, y

es la razón promedio de poderes de frenado másicos de los electrones que


atraviesan la cavidad, con la que se tiene en cuenta la diferencia entre la energía disipada
por unidad de masa en el medio material (m) y en el gas (g).
Por tanto, la ecuación 10 permite calcular la dosis absorbida en un medio que rodea la
cavidad de Bragg-Gray, basándose en la carga producida en el gas de la cavidad. Esta
teoría también puede aplicarse a cavidades cuyo medio sea sólido o líquido, salvo que en
estos casos cambiará la manera del calcular Dg. No obstante, es difícil satisfacer las
condiciones de Bragg-Gray en medios condensados.
La teoría de Bragg-Gray fue modifica por Spencer y Attix para tener en cuenta la
deposición de energía en la cavidad por parte de los rayos δ (electrones secundarios)
generados fuera de ella.

3.3. Factores de perturbación


Los detectores empleados para la medida de la dosis absorbida, fundamentalmente
cámaras de ionización, no son sólo una cavidad de aire, sino que están constituidos por
otros elementos, como la pared o el electrodo colector, fabricados con materiales no
equivalentes al medio, y que hacen que el comportamiento del detector se aleje del de
una cavidad perfecta de Bragg-Gray. Estas desviaciones se tienen en cuenta introduciendo
factores de perturbación, pi, en la ecuación 10:

[11]

Las características estructurales de las cámaras de ionización se tienen en cuenta


aplicando los factores de perturbación que seguidamente se comentan.

Perturbación producida por la cavidad, pcav


Corrige la perturbación de la fluencia de electrones que introduce la cavidad respecto de
la que habría en el medio en ausencia de la cavidad.
Este factor puede considerarse aproximadamente 1 para la medida de dosis absorbida
en haces de fotones en la zona donde existe equilibrio electrónico (no hay cambio del
espectro de energía ni de la distribución angular de los electrones secundarios con la
posición del medio irradiado), y para haces de electrones, si se emplean cámaras de
ionización plano-paralelas como las descritas en el apartado «Cámaras de ionización
plano-paralelas».

Perturbación producida por la pared, pwall


Corrige la respuesta de la cámara por la no equivalencia al medio del material del que
está constituida su pared, y de cualquier funda impermeable con la que se pueda utilizar,
si el medio es agua.
Este factor tiene en cuenta las diferencias entre los coeficientes de absorción de
energía másicos de los fotones y de las razones de poderes de frenado de los electrones
del material de la cámara de ionización y del medio. Para electrones, el valor de pwall es
aproximadamente 1.

Perturbación producida por el electrodo central, pelec


Corrige la respuesta de la cámara debido a la presencia del electrodo central,
generalmente de aluminio en la mayoría de las cámaras cilíndricas, ya que supone un
incremento de la dosis absorbida respecto a la que se obtendría en una cavidad ideal de
aire.

Perturbación producida por el desplazamiento del medio, pdis. Punto


efectivo de medida, Peff
Al introducir la cámara de ionización en un medio se produce un desplazamiento de un
volumen equivalente del material del medio, de manera que dicho volumen es
reemplazado por el aire de la cavidad, que presenta menor atenuación, lo que implica
que la lectura en el centro de la cámara sea superior a la lectura en el mismo punto del
medio, si no existiera la cámara.
El exceso de dosis se corrige mediante el factor pdis, que depende de la calidad de la
radiación y de la dimensión de la cámara en la dirección del haz. Para haces de fotones,
debido al bajo gradiente de la dosis absorbida en el eje, el valor de pdis es prácticamente
constante con la profundidad a partir del máximo; en cambio, en la región cercana a la
superficie (zona de acumulación) varía de forma complicada con la profundidad. En lugar
de emplear un factor de corrección, la perturbación por desplazamiento del medio puede
rectificarse asignando la lectura de la cámara no al centro de esta, sino a un punto
situado más cercano a la entrada del haz, denominado punto efectivo, Peff .
Para haces de fotones, pdis se encuentra incluido en el coeficiente de calibración de la
cámara, por lo que no es necesario incluir ninguna corrección posterior en la
determinación de la dosis absorbida. Sin embargo, para la medida de un rendimiento en
profundidad lo más adecuado es corregir por el punto efectivo, desplazando la curva una
distancia d = 0,6·r (r = radio del cilindro de la cámara). Para haces de electrones, el valor de
pdis varía muy rápidamente con la profundidad, por lo que se recomienda utilizar siempre
Peff , situando el punto de medida a d = 0,5·r para cámaras cilíndricas y en la parte interna
de la ventana frontal de las cámaras plano-paralelas (fig. 10-9).

FIGURA 10-9 Corrección de la perturbación producida por el desplazamiento del medio mediante
el empleo del punto efectivo. El punto efectivo para cámaras cilíndricas se encuentra a una distancia
d = 0,6 × r o 0,5 × r (r = radio del cilindro), si emplea para medir porcentajes de dosis en profundidad
(PDD) de haces de fotones o electrones, respectivamente. Para una cámara plano-paralela, el punto
efectivo se encuentra en la parte interna de la ventana frontal.
4. Equipamiento
En general, un dosímetro consta de un volumen sensible en el que se encuentra
contenido un medio, g, rodeado por una pared de espesor variable compuesta de otro
medio, w. Por tanto, en términos de la teoría de la cavidad, el volumen sensible se
identifica con la «cavidad», la cual puede contener un medio líquido, sólido o gaseoso,
dependiendo del tipo de dosímetro, y la pared como el medio que rodea la cavidad. La
pared tiene varias finalidades:
• Servir de fuente de partículas cargadas secundarias que contribuyan a la dosis
absorbida en el volumen sensible y proporcionar CPE o TCPE.
• Blindar el volumen sensible contra las partículas cargadas que se originan fuera de la
pared.
• Contener el material que llena el volumen sensible.
• Proteger el volumen sensible de influencias hostiles, tales como golpes, suciedad,
humedad, etc.

4.1. Propiedades de los dosímetros


A continuación se exponen las características que deben evaluarse en un dosímetro para
decidir su idoneidad para el tipo de tarea que se desee realizar.

Exactitud y precisión
La exactitud de una medida es el grado de coincidencia entre el resultado de la medida y
el valor verdadero de la magnitud aceptado como referencia. La precisión es el grado de
coincidencia, de la reproducibilidad existente entre los resultados independientes de una
medición obtenidos en similares condiciones.
Desde un punto de vista estadístico, la exactitud está relacionada con la desviación de
una estimación, y la precisión con la dispersión o desviación estándar del conjunto de
valores obtenidos de mediciones repetidas de una magnitud. Cuanto menor es la
dispersión, mayor es la precisión.

Linealidad
La lectura del dosímetro debería ser proporcional a la magnitud dosimétrica de interés.
El rango de linealidad y el comportamiento no lineal dependen del tipo de dosímetro y
de sus características físicas.

Dependencia de la tasa de dosis


La lectura debería ser independiente de la tasa de radiación empleada, es decir, la lectura
para las tasas t y 2t debería ser la misma. En la práctica puede ser necesario corregir
dicha dependencia; por ejemplo, cuando se mide la dosis absorbida por unidad de
monitor con cámaras de ionización, para tener en cuenta el efecto de recombinación.
Respuesta energética
Un dosímetro ideal debería tener la misma respuesta para cada una de las calidades de
radiación ionizante. Sin embargo, cuando se emplean cámaras de ionización para medir
dosis absorbida en agua, estas presentan una fuerte dependencia con la energía por no
ser un dosímetro equivalente a dicho medio.

Dependencia direccional
Consiste en la variación de la respuesta del dosímetro con el ángulo de incidencia de la
radiación. Lo ideal sería que el dosímetro presentase una respuesta isótropa. La
dependencia angular puede variar con la forma, el tamaño y la naturaleza del detector,
así como con la naturaleza y la energía de la radiación.

Resolución espacial
El dosímetro ideal debería ser puntual para poder medir la dosis absorbida que se define
en un punto determinado. En la realidad no existen detectores puntuales, pero sí de
pequeño volumen.
La resolución se encuentra reñida con la sensibilidad, y por tanto debe encontrarse un
compromiso entre ambas en función del objetivo de la medida.

4.2. Sistemas de dosimetría basados en cámaras de


ionización
Estos sistemas están formados por una cámara de ionización (CI) y un electrómetro. De
forma general, una CI es una cavidad llena de gas (parte sensible) rodeada por una pared
conductora, cuya superficie interna constituye el electrodo de polarización, y un electrodo
central colector que recoge la carga creada en dicha cavidad (fig. 10-10A). La pared y el
electrodo colector se encuentran separados por un aislante de alta calidad para reducir la
corriente de fuga cuando la tensión de polarización es aplicada entre ambos electrodos.
El electrodo de guarda define el volumen sensible de la cámara e impide que el electrodo
colector recoja las corrientes de fuga que puedan crearse fuera de la cavidad de la
cámara. El tallo es la zona de las CI por donde discurren los cables, tanto de recogida de
señal como de polarización. Debe ser de un material equivalente al medio donde se
realizan las medidas para que no produzca perturbaciones importantes, y estar relleno
de material aislante, sin volúmenes de aire, para evitar que se produzcan corrientes
indeseables.
FIGURA 10-10 A) Esquema de una cámara de ionización cilíndrica tipo Farmer. B) Cámara de
ionización cilíndrica Farmer 30013 de PTW junto con la caperuza de metacrilato. (Hospital Universitario
Puerta de Hierro Majadahonda, Madrid.)

En función de su aplicación, las CI se construyen con diferentes geometrías.

Cámaras de ionización cilíndricas


Son cámaras en las que el gas contenido en el volumen sensible es aire, con un tamaño
que puede variar entre 0,1 cm3 y 1 cm3. La longitud y el radio interno de la cámara no son
superiores a 25 mm y 3,5 mm, respectivamente. La pared1 suele ser de grafito o de un
material plástico (PMMA, polimetil metacrilato) con un recubrimiento interno de grafito,
de forma que el espesor de la pared es menor de 0,1 g/cm2. El electrodo central o colector,
de 1 mm diámetro, puede ser de grafito o aluminio. La diferencia de potencial entre
ambos electrodos oscila entre 300 V y 400 V, por lo que para que exista un buen
aislamiento entre todos los elementos conductores, y así evitar corrientes extracamerales,
se coloca un aislante (PTCFE, politricloro-fluoretileno). Las cámaras de pared de grafito
presentan una mayor estabilidad a largo plazo y una respuesta más uniforme que las
cámaras con pared de plástico, aunque estas, al ser más robustas, se prefieren para el
trabajo diario. Es deseable que el material del electrodo central sea el mismo que el de las
paredes; sin embargo, un electrodo colector de aluminio minimiza la dependencia
respecto a la energía en la zona de rayos X de energía media. No obstante, es necesario
introducir un factor de corrección por la no equivalencia a aire del electrodo, que en el
caso del grafito es despreciable.
Se emplean en medidas de haces de fotones de energías medias y altas, así como en
electrones de energías superiores a los 10 MeV. Para energías de electrones inferiores a
8 MeV, la cavidad de la cámara puede llegar a introducir una perturbación del orden del
3%, por lo que para este rango de energías se recomienda el uso de cámaras plano-
paralelas (descritas en el apartado «Cámaras de ionización plano-paralelas»). Debido a su
sección circular, son adecuadas tanto para medidas de distribuciones de dosis absorbida
en planos como para la determinación de la misma en condiciones de referencia.
Las CI cilíndricas más populares son las tipo Farmer, con un volumen sensible de
0,6 cm3, que responden al esquema de la figura 10-10B. La forma de su volumen activo se
parece a un dedal, y de ahí que también sean conocidas como cámaras dedal.

Cámaras de ionización plano-paralelas


Son cámaras en forma de disco (cilindro de 1-2 cm de radio y 0,5 cm de altura)
constituidas por dos electrodos paralelos (fig. 10-11A). Uno de ellos se emplea como
ventana de entrada y electrodo de polarización, y el otro como pared posterior y
electrodo colector, situado a unos 2 mm de la ventana. Tanto la pared interna de la
ventana de entrada como el electrodo colector suelen ser de grafito, de modo que este
último se asienta sobre un bloque de material plástico (Perspex® o poliestireno). El
electrodo de guarda, en forma de anillo, situado a la altura del electrodo colector, tiene
como fin evitar que el campo eléctrico se deforme en la periferia. El volumen de la
cavidad limitado entre ambos es del orden de 0,01 cm3 y 0,5 cm3, y el espesor de la
ventana es de 0,1 g/cm2.
FIGURA 10-11 A) Esquema de una cámara de ionización plano-paralela. B) Cámara de ionización
plano-paralela Markus Advanced 34045 de PTW, con caperuza de protección que impermeabiliza la
cámara para poder realizar medidas en agua. (Hospital Universitario Puerta de Hierro Majadahonda, Madrid.)

La tensión de colección entre ambos electrodos es de unos 200-300 V (dependiendo del


modelo de cámara), y no es conveniente sobrepasarla para evitar la deformación del
electrodo que hace de ventana, ya que como antes se ha indicado su espesor es de sólo
1 mm.
Su delgada ventana de entrada (láminas de 0,01-0,03 mm de Mylar, poliestireno o mica)
permite realizar medidas prácticamente en la superficie del maniquí sin que esta
produzca una atenuación significativa. Añadiendo bloques de distintos espesores del
maniquí sobre la ventana de la cámara puede estudiarse la variación de la dosis con la
profundidad en zonas muy superficiales que no pueden evaluarse con cámaras
cilíndricas debido a su mayor volumen.
Por otro lado, el pequeño espaciado entre sus electrodos permite una gran resolución
para medir PDD y minimiza la perturbación de la cavidad en el campo de radiación, lo
que resulta fundamental para la dosimetría de haces de electrones donde las cámaras
cilíndricas producen perturbaciones importantes en el campo. Por tanto, se recomienda
su uso para haces de electrones de cualquier energía, y es obligatorio para electrones de
energía media en superficie inferior a 10 MeV.

Magnitudes de influencia
Son aquellas que no son el objetivo de la medida, pero que repercuten en el resultado de
la magnitud a medir con un determinado detector.

Fugas
La corriente de fugas es aquella que se acumula durante la medida, pero no procede de
las ionizaciones producidas en la cavidad de la cámara. Puede ser de dos tipos:
• Natural o intrínseca: corresponde a la señal detectada previa a la irradiación de la
cámara. Se debe a la corriente producida entre los electrodos de la cámara por el alto
voltaje aplicado. Su valor no debería ser superior a ±0,5% del valor de la corriente
producida con la mínima tasa de dosis absorbida. Es suficiente esperar unos minutos,
tras la aplicación de la alta tensión a la cámara, para que esta corriente se estabilice y
alcance un valor despreciable frente a la señal.
• Postirradiación: el equipo «sigue midiendo» tras terminar la irradiación, de manera que
el valor va decreciendo exponencialmente con el tiempo. Se debe a la irradiación de los
materiales aislantes, cables y en general otras partes de la cámara que no constituyen
el volumen activo. Su valor a los 5 segundos de haber finalizado una medida de 10
minutos debe ser inferior a ±1% del valor de la lectura.
También se puedan dar corrientes de fugas causadas por torsiones o dobleces
innecesarios de los cables de la cámara, y por fatigas mecánicas de los conectores.

Efecto tallo
En este efecto pueden considerarse dos componentes:
• Corrientes de fugas producidas por la irradiación del tallo, en mayor o menor grado,
dependiendo del tamaño de campo de irradiación empleado. Para estimar este efecto
se irradia la cámara con un campo rectangular, de manera que primero se coloca la
cámara en una de las direcciones del campo (incluyendo el tallo) y después en la otra.
El cociente de ambas medidas proporciona un factor de corrección para los casos en
que sea imprescindible irradiar toda la cámara.
• Irradiación del tallo por la radiación dispersa que le llega, aunque no se encuentre
dentro del campo de irradiación. El factor de corrección se obtiene del cociente entre
dos medidas, una de ellas protegiendo el tallo con un blindaje y la otra sin él.

Corrección por presión y temperatura


Si las cámaras empleadas son abiertas al aire, la masa de aire del volumen de la cavidad
durante la medida puede ser diferente de la masa en condiciones de calibración,
denominadas normales o de referencia, y que dependen de la presión, la temperatura y la
humedad relativa. La mayoría de los laboratorios consideran condiciones de referencia
P0 = 101,325 kPa, T0 = 20°C (22°C en Norteamérica) y una humedad relativa del 50%.
Si la humedad relativa está entre el 20% y el 70%, no es necesario realizar ninguna
corrección. Sin embargo, si la medida se realiza en unas condiciones de presión, P, y
temperatura, T, el factor de corrección viene dado por:

[12]

donde P y T están expresados en kPa y °C, respectivamente.


Se considera como temperatura de la cavidad la del medio en que se realizarán las
medidas, que no tiene por qué coincidir con la temperatura ambiental. Hay que esperar
un tiempo suficiente para que el aire de la cavidad de la cámara alcance el equilibrio
térmico con el medio.

Efecto de polaridad
La carga recogida por la CI puede ser diferente al cambiar el signo de la tensión de
polarización aplicada. Este efecto suele ser despreciable para cámaras tipo dedal en haces
de fotones, aunque debe ser evaluado. Sin embargo, es importante en el caso de cámaras
plano-paralelas y haces de electrones de baja energía o haces de fotones para medidas en
la región de acumulación.
Si el efecto de polaridad no es despreciable, el factor de corrección que debe aplicarse
es:

[13]

donde M+ y M− son las lecturas obtenidas con polaridad positiva y negativa,


respectivamente, y M la lectura obtenida con la polaridad empleada de manera habitual.
Si el valor de kpol es superior al 3%, la CI no debería utilizarse para la determinación de
la dosis absorbida.

Recombinación de iones
Como ya se explicó en el capítulo 4, la carga colectada por la cámara puede ser diferente
de la producida por la radiación en función del voltaje aplicado, de manera que puede
haber una pérdida de carga debido a un efecto de recombinación, o un exceso debido a
un efecto de multiplicación de cargas.
El cociente entre la carga a una tensión V y la carga en condiciones de saturación se
define como la eficiencia de colección (f). El factor de corrección por saturación, ks , es el
inverso de la eficiencia f.
Para los haces pulsados de fotones y electrones generados por los aceleradores
lineales, Boag propone el método de las dos tensiones para el cálculo de ks , basado en la
dependencia lineal del recíproco de la carga recogida por la cámara, (1/M), con el inverso
del voltaje aplicado a los electrodos, (1/V). Así, si M1 es la carga recogida a la tensión V1, y
M2 la carga recogida a V2, ks puede expresarse como:

[14]

siendo V1 la tensión habitual de trabajo y al menos tres veces el valor de V2. Los valores
de las constantes a i son función del cociente V1/V2.
La tensión de trabajo debe ser tal que las pérdidas por recombinación sean menores
del 1%. En una cámara tipo Farmer esto se consigue para tensiones del orden de 300 V o
mayores y dosis por pulso de 0,1 cGy o inferiores. En el caso de las cámaras plano-
paralelas, a las cuales no se les pueden aplicar tensiones de polarización altas debido al
riesgo de que se deforme el volumen de colección, la tensión de trabajo puede ser más
baja, dejando de ser válido el método de las dos tensiones.
Para haces de radiación continua, como los impartidos por las unidades de 60Co, el
método de las dos tensiones se basa en la dependencia lineal entre el inverso de la carga
1/M y el inverso del cuadrado de la tensión aplicada 1/V2.

Electrómetro
Dispositivo electrónico utilizado para la medida de corrientes del orden de 10−8-10−15 A.
Suele ir acompañado de una fuente de tensión para aplicar la diferencia de potencial
entre los electrodos de la CI, de modo que el conjunto de ambos se denomina
electrómetro (fig. 10-12).
FIGURA 10-12 Electrómetro UNIDOSweb line (PTW), para amplificar las cargas o corrientes
producidas en la cámara de ionización y suministrar la tensión de polarización adecuada. (Hospital
Universitario Puerta de Hierro Majadahonda, Madrid.)

El electrómetro puede proporcionar medidas tanto de carga eléctrica como de


intensidad de corriente. La primera será proporcional a la magnitud integrada que se
desea medir y para la que esté calibrado el conjunto detector-electrómetro, y la segunda
será proporcional a su tasa.
Los electrómetros empleados en radioterapia deben incorporar la posibilidad de variar
la tensión de colección, así como de invertir su polaridad para poder determinar la
eficiencia de colección y el efecto de polaridad de las CI.
Si la calibración de la CI no se realiza junto con el electrómetro con el que va a ser
usada, hay que utilizar un factor más de corrección: el factor de corrección por cambio de
electrómetro, ke le c , ya que las unidades en que se expresa el coeficiente de calibración de
una cámara, Gy/C o Gy/div, se refieren a culombios o divisiones de un electrómetro en
concreto.

4.3. Maniquíes y otros sistemas de dosimetría


Maniquíes
El agua es el medio recomendado para la determinación de la dosis absorbida en agua,
tanto para fotones como para electrones. Además, es el material más similar al tejido
blando. Se recomienda que las dimensiones del maniquí sean tales que exista un margen
de 5 cm de material en los cuatro lados del campo, definido a la profundidad de medida,
y también por debajo de dicha profundidad para proporcionar las condiciones adecuadas
de dispersión. En la práctica clínica, el maniquí consiste en un analizador de haces
automático que permite mover la CI en las tres direcciones del espacio (fig. 10-13A). El
sistema analizador consta de un tanque de agua de paredes de plástico con unas
dimensiones de 50 cm × 50 cm × 50 cm o superiores. El tanque suele montarse sobre una
plataforma elevadora, que puede nivelarse y con la cual puede ajustarse la distancia
fuente-superficie.

FIGURA 10-13 A) Sistema analizador de haces: tanque de agua de paredes de plástico junto con
dispositivo de posicionamiento (brazo) para colocar los detectores. B) Izquierda: maniquí de agua
sólida SP34 (RW3: poliestireno blanco). Derecha: maniquí de agua sólida RMI-457. Uno de los
bloques presenta un alojamiento para la cámara de ionización plano-paralela Roos 34001, para la
medida de dosis absorbida de electrones. (Hospital Universitario Puerta de Hierro Majadahonda, Madrid.)

Para medidas sistemáticas o rutinarias se emplean maniquíes de plástico, tales como


poliestireno, PMMA, agua sólida WT1 o agua sólida RMI-457 (fig. 10-13B). Estos
materiales se consideran equivalentes al agua en términos de densidad, número de
electrones por gramo y número atómico efectivo2, pero esta equivalencia no es siempre
cierta, ya que también depende del tipo y la energía de la radiación.
Los maniquíes están formados por láminas cuadradas de 30 cm × 30 cm, de diferentes
espesores.

Otros sistemas de dosimetría


Los fundamentos físicos y características de los detectores que se citan a continuación ya
se han expuesto en los capítulos 2 y 4, pero aquí se detalla su uso en radioterapia.

Sistemas de dosimetría 2D: dosimetría radiográfica, electronic portal


imaging device (EPID) y matrices de detectores
Las películas, tanto radiográficas como radiocrómicas, pueden emplearse para obtener
distribuciones dosimétricas en un plano. Debido a su excelente resolución intrínseca en
2D, son muy útiles para trabajar en zonas del haz de radiación donde existen altos
gradientes de dosis absorbida, si bien hay que tener en cuenta que dicha resolución se ve
reducida por el sistema lector empleado. Si se emplean para dosimetría absoluta, debe
obtenerse la curva sensitométrica para cada una de las calidades de energía que se vayan
a emplear, debido a su pronunciada dependencia energética, si bien esto no es necesario
para las películas radiocrómicas en las que esta dependencia se ha eliminado.
En general, la película radiográfica, e incluso la película radiocrómica, están siendo
sustituidas por los dispositivos electrónicos de adquisición de imágenes portales o EPID
(electronic portal imaging device), los cuales han pasado a tener una nueva utilidad, además
de su uso convencional para comprobar el correcto posicionamiento del paciente. Los
detectores de panel plano empleados en radioterapia son de tipo indirecto, es decir, la
conversión de la energía procedente del haz de radiación que realiza el elemento sensible
a esta se realiza a través de un material centelleador, por ejemplo Gd2O2S:Tb (oxisulfuro
de gadolinio dopado con terbio), en contacto con una matriz de píxeles, donde cada uno
de ellos cuenta con un elemento fotosensible (silicio amorfo3). Su implementación para
dosimetría requiere establecer la relación entre la intensidad de pixel y la fluencia o
distribución de dosis. Este proceso de calibración es más complicado que una calibración
cruzada entre el valor de pixel y la medida realizada por una CI en un maniquí de agua
homogéneo, ya que, debido a que el EPID se estructura en varias capas de distintos
materiales, las propiedades de deposición de dosis difieren significativamente de
aquellas en un simple maniquí de agua. Su respuesta es independiente de la tasa de
dosis y lineal con la dosis integrada, depende de la energía del haz incidente y del
tamaño de campo irradiado, y píxeles individuales pueden tener una sensibilidad
ligeramente diferente debido a la no homogeneidad en la matriz o a la electrónica de
lectura.
Otro método alternativo a las películas para la verificación de tratamientos de
pacientes son los conjuntos de cámaras de ionización o diodos formando una matriz de
detectores (arrays) (fig. 10-14), si bien estas matrices presentan peor resolución espacial
que las películas y los EPID.

FIGURA 10-14 Matriz de cámaras de ionización (StarTrack de Iba Dosimetry, constituido por 453
cámaras de ionización distribuidas en un área activa de 27 cm × 27 cm) empleada para el control
de calidad diario de un acelerador. (Hospital Universitario Puerta de Hierro Majadahonda, Madrid.)

Dosímetros de termoluminiscencia (TLD)


Son materiales que pueden presentarse en forma de pastillas o chips y polvo. Los chips
pueden llegar a tener dimensiones tan pequeñas (1 mm3), que les hacen ser muy útiles
especialmente en situaciones de alto gradiente de dosis absorbida, así como para la
caracterización de fuentes en braquiterapia, la medida de haces pequeños de fotones en
radiocirugía y la verificación de tratamientos de intensidad modulada. También se usan
para el control de la dosis absorbida impartida durante el tratamiento.

Sistemas de dosimetría de semiconductor


Los diodos utilizados para dosimetría se basan en uniones p-n. Estas se construyen a
partir de un único cristal de silicio impurificando la base con elementos que aporten un
exceso de electrones (detectores tipo n), o un defecto (detector tipo p), y dopando la
superficie con el tipo de material opuesto al empleado para la base. La región de
transición entre ambas se denomina zona de carga espacial. Se prefieren los diodos tipo p
porque presentan menos dependencia de la radiación acumulada.
Tienen ventajas sobre las CI debido a su pequeño tamaño y alta sensibilidad con la
dosis absorbida, pero como el volumen de detección es casi imposible de determinar con
la exactitud requerida, no pueden utilizarse para medidas absolutas. No obstante,
resultan adecuados para medidas relativas, en especial en zonas de alto gradiente de
dosis absorbida, pues ofrecen una gran resolución espacial.
Se debe tener en cuenta que su respuesta varía con la energía, el ángulo de incidencia
del haz, la temperatura y la dosis acumulada.

Dosímetros de alanina
Son barritas o pastillas de un aminoácido con una cubierta inerte. La interacción con la
radiación produce una concentración de radicales libres proporcional a la dosis, de
manera que dicha concentración se mide mediante técnicas de resonancia paramagnética
de electrones. La dosis absorbida se determina según la altura de los picos del espectro.
A diferencia de los TLD, la lectura de la medida no destruye la información de la
muestra, aunque también presentan un desvanecimiento o fading de la señal apreciable
al pasar meses tras la irradiación, y es dependiente de las condiciones ambientales de
temperatura y humedad.
La alanina es equivalente a tejido y se utiliza para valores de dosis absorbida del orden
de 10 Gy.

Dosímetros de diamante
El principio de funcionamiento de los dosímetros de diamante es el cambio de
resistividad producido por la radiación. Si se aplica una diferencia de potencial al
dosímetro, la corriente producida es proporcional a la tasa de radiación.
Su volumen sensible es del orden de 1 mm3, por lo que presenta una buena resolución
espacial, complementada por una buena sensibilidad. Puede considerarse que son
equivalentes a tejido biológico y, por tanto, no presentan dependencia de la energía,
aunque sí con la tasa de dosis absorbida.
Se emplean para realizar medidas de dosis absorbida en haces de fotones y electrones
de aceleradores lineales, y en zonas de alto gradiente de dosis absorbida.
5. Determinación de la dosis en condiciones de
referencia: calibración de haces de megavoltaje
Los dosímetros son aparatos que proporcionan una lectura, M, en respuesta a la dosis
absorbida, Dg, en su volumen sensible. Sin embargo, el interés no reside normalmente en
obtener la dosis absorbida, Dg, en el propio volumen sensible como medio en sí mismo,
sino más bien como medio empleado para determinar la dosis, u otra magnitud
relacionada con ella, en otro medio diferente en el que no es posible realizar la medición.
Por tanto, el problema central de la dosimetría es interpretar la lectura del dosímetro
para obtener la magnitud deseada. El proceso de interpretación se denomina calibración,
y por él se obtiene un coeficiente de calibración, N, que multiplicado por la lectura del
dosímetro, M, da el valor de la magnitud deseada en un punto (punto de referencia del
dosímetro).
La calibración de dosis absorbida en agua de un haz de radiación clínico requiere
seguir protocolos aprobados de ámbito nacional o internacional, no sólo para asegurar la
exactitud dosimétrica en el tratamiento de los pacientes, sino también para proporcionar
concordancia entre los datos dosimétricos de los distintos hospitales que administran
radioterapia.
Aunque existen varios procedimientos para la determinación de dosis absorbida en
agua en haces externos de radioterapia, como el TG-51 elaborado por AAPM, o la norma
DIN 6800-2, la Sociedad Española de Física Médica recomienda la utilización del
protocolo TRS-398 de la Agencia Internacional de la Energía Atómica (IAEA, por sus
siglas en inglés), el cual será detallado a continuación.
En lo sucesivo, se considerará que el dosímetro empleado para la determinación de la
dosis absorbida en agua sea una CI de características adecuadas al tipo de haz de
radiación del usuario y conectada a un electrómetro que proporcionará la tensión de
polarización oportuna.

5.1. Formalismo basado en dosis absorbida en agua


La dosis absorbida en agua a una profundidad de referencia, zref , para un haz de calidad
Q, diferente a la calidad Q0 utilizada en la calibración del dosímetro, viene dada por:

[15]
donde MQ es la carga eléctrica corregida por las magnitudes de influencia detalladas en
el apartado «Magnitudes de influencia», es decir, MQ = Q k TP k s k pol k h, siendo Q la carga
registrada por la CI; ND,w,Q0 es el coeficiente de calibración de la CI (Gy/nC) en términos
de dosis absorbida en agua, obtenido por un laboratorio de calibración en unas
determinadas condiciones de referencia; y k QQ0 es el factor que corrige por la diferencia
entre la calidad de referencia del haz Q0 y la calidad real del usuario Q.
El factor de corrección de calidad del haz k QQ0 se define como el cociente de los
coeficientes de calibración, en las calidades Q y Q0, en términos de dosis absorbida en
agua de la cámara de ionización:

[16]

La calidad de referencia Q0 más comúnmente usada para la calibración de las CI es la


radiación gamma de 60Co, en cuyo caso el símbolo k QQ0 se simplifica como k Q.
Aplicando la teoría de Bragg-Gray (ecuación 11) en la ecuación 16, se puede calcular
teóricamente el factor de corrección de calidad del haz, k QQ0:

[17]

donde (sw,aire)Q es la razón de poderes de frenado agua-aire para la calidad Q o Q0, Waire
es la energía media necesaria para crear un par de iones en aire seco y pQ es el factor de
corrección por perturbación de la fluencia mediante la cual se pasa de las condiciones
ideales de un detector de Bragg-Gray a las reales de una CI, de manera que pQ = pcav pwall
pdis pelecl.
Si se considera el valor de Waire constante para el rango de energía con el que se trabaja
en radioterapia, la ecuación 17 se puede aproximar como:

[18]

Las razones de poderes de frenado agua-aire presentan características diferentes,


según se trate de:
• Haces de electrones: sw,aire presenta una fuerte dependencia de la energía y la profundidad,
debido a la gran variación del espectro de energías en las distintas profundidades en
agua (fig. 10-15A).
• Haces de fotones: sw,aire para fotones monoenergéticos es prácticamente constante con la
profundidad, a partir de la profundidad de equilibrio electrónico (fig. 10-15B).
FIGURA 10-15 Representación esquemática de la variación con la profundidad de las razones de
poderes de frenado s w,aire para haces de electrones (A) y fotones (B).

5.2. Fotones de alta energía


La determinación de la dosis absorbida en haces de fotones de energía de megavoltaje se
obtiene de acuerdo a la ecuación 15, pero hay que tener en cuenta las siguientes
consideraciones.

Maniquí
El medio en que se efectuarán las medidas será un maniquí equivalente a agua, de
dimensiones apropiadas a los haces que se han de caracterizar (márgenes de 5 cm en los
cuatro lados del campo y 5 g/cm2 por debajo de la profundidad de medida4). Si la cámara
no fuera sumergible, se usará una funda o camisa de plástico de densidad conocida y un
espesor no mayor de 1 mm.

Cámaras de ionización
Se recomienda la utilización de CI cilíndricas con un volumen aproximado de 0,6 cm3 y
paredes de grafito. El punto de referencia de la cámara se considera situado en el eje de
esta, en el centro de la cavidad, y deberá colocarse a la profundidad recomendada de
medida.
No deben emplearse cámaras plano-paralelas, ya que el factor de corrección por la
pared, pwall, no está muy bien estudiado, aunque sí pueden utilizarse en medidas relativas
(PDD), pues al ser la distancia entre electrodos alrededor de 2 mm la resolución es muy
buena en el eje perpendicular de la cámara. Sin embargo, tampoco son adecuadas para la
medida de perfiles de dosis absorbida, porque el tamaño (1 cm de diámetro) sería
demasiado grande en la dirección del perfil.

Condiciones de referencia
El cuadro 10-1 resume las condiciones de referencia para la determinación de la dosis
absorbida en haces de fotones. Se emplea un campo de 10 cm × 10 cm, y la profundidad
de medida, zref , será de 5 cm o 10 cm, en función de la energía del haz.

Cuadr o 10- 1 Re sum e n de la s condicione s de re fe re ncia pa ra la


de t e rm ina ción de la dosis a bsorbida e n ha ce s de fot one s
Tipo de cámara y maniquí
Cilíndrica en agua
Profundidad de medida (zref)
Si 60Co → 5 g/cm2 (10 g/cm2)
Si TPR20,10 <0,7 → 10 g/cm2 (5 g/cm2)
Si TPR20,10 >0,7 → 10 g/cm2

Punto de referencia de la cámara


En el eje central y en el centro de la cavidad
Posición del punto de referencia
A la profundidad de medida zre f

DFS o DFC*
En 60Co a 80 cm; resto de fotones a 100 cm
Tamaño de campo
10 cm × 10 cm
Corrección por presión, temperatura, saturación, polaridad y fugas

* La distancia se
medirá del foco a la superficie o del foco al plano de la cámara, dependiendo del modo de trabajo del
usuario DFS o DFE (en el isocentro), o de las especificaciones del sistema de planificación de tratamientos.
DFC: distancia desde el foco al plano de referencia de la cámara; DFS: distancia desde el foco a la superficie del maniquí.

Aunque el punto efectivo de una cámara cilíndrica no coincide con el centro de la


cavidad, sino que se sitúa más cerca del foco de radiación (desplazado 0,6 veces el radio
de la cámara), en los protocolos basados en patrones de dosis absorbida en agua se
acuerda que la cámara se calibre situando el punto medio de la cavidad a la profundidad
de referencia, dando el coeficiente de calibración en estas condiciones, y por lo tanto, así
deberá colocarla el usuario cuando la utilice para determinar la dosis absorbida en agua;
con lo cual, no se hará corrección por punto efectivo ni por desplazamiento.

Índice de calidad
Debe determinarse la energía de un haz de fotones debido a la dependencia energética
de alguno de los parámetros (razones de poderes de frenado y factores de perturbación)
necesaria para la determinación de la dosis absorbida.
Los haces de fotones producidos por un acelerador lineal de electrones no son
monoenergéticos, sino que se caracterizan por un amplio espectro que depende de la
energía de los electrones incidentes en el blanco, del espesor y del número atómico de
dicho blanco, del filtro aplanador y del sistema de colimación y monitorización.
La calidad del haz de fotones se relaciona directamente con la distribución espectral de
energía, algo muy complejo de determinar. Por esta razón, en radioterapia, es más útil
expresarla en términos del poder de penetración en agua. El TRS-398 recomienda como
índice de calidad la razón tejido-maniquí a las profundidades de 20 cm y 10 cm, TPR20,10,
definido como el cociente de dosis absorbida a las profundidades de 20 cm y 10 cm,
medida en un maniquí de agua, a una distancia entre el foco del haz y el plano de
referencia de la cámara (DFC) de 100 cm y con un tamaño de campo en este plano de
10 cm × 10 cm. Aunque la definición se realiza en términos de dosis absorbida, se acepta
el cociente de la ionización a 10 cm y 20 cm de profundidad, ya que la variación de la
razón de poderes de frenado agua-aire con la profundidad es prácticamente despreciable
a partir de la profundidad del máximo. El TPR20,10 también puede calcularse a partir del
cociente del porcentaje de dosis en profundidad PDD20,10, medido a una distancia foco-
superficie de 100 cm.
Puesto que la calidad del haz del usuario, Q, suele diferir de la empleada para la
calibración, Q0, es necesario aplicar el factor k QQ0. Lo ideal sería que el laboratorio de
calibración suministrara con el coeficiente de calibración, ND,w,Q0, un conjunto de factores,
k QQ0, que cubriera el rango de energías del usuario. Sin embargo, lo más habitual es
emplear valores calculados de k QQ0, que se encuentran tabulados en el TRS-398 para un
conjunto de cámaras cilíndricas y un rango de TPR20,10 entre 0,5 y 0,84.

5.3. Electrones de alta energía


La determinación de la dosis absorbida en haces de electrones de energía de megavoltaje
se obtiene según la ecuación 15, pero hay que tener en cuenta algunos aspectos que se
comentan a continuación.

Maniquíes
Se recomienda usar preferentemente agua, cuyas dimensiones, al igual que en fotones,
han de exceder en 5 cm las dimensiones del campo mayor que se ha de medir.
Si se utiliza un maniquí de láminas de plástico, autorizado para las energías más bajas,
el espesor de las láminas debe corregirse por la densidad del plástico:

[19]
siendo ρ la densidad del plástico.

Cámara de ionización
Deben emplearse cámaras plano-paralelas cuyo punto efectivo, situado en el centro de la
pared interna de la ventana, se coloca a la profundidad de referencia. Para haces de
electrones de alta energía (superior a 10 MeV) pueden usarse cámaras cilíndricas, en cuyo
caso el punto efectivo se encuentra a 0,5 veces el radio de la cámara, r, hacia la superficie,
y por tanto el centro de la cámara tiene que colocarse 0,5·r más profundo en el maniquí.

Índice de calidad
El método más práctico y sencillo para la caracterización de un haz de electrones se basa
en la medida de los alcances o recorridos de los electrones en un medio equivalente a
agua. Por tanto, el TRS-398 define como índice de calidad de un haz de electrones la
profundidad para la que se tiene el 50% de la dosis absorbida máxima, R50 (g/cm2),
medido a DFS de 100 cm y para un tamaño de campo en superficie mayor o igual que
20 cm × 20 cm, para altas energías, o igual o mayor que 10 cm × 10 cm para energías más
bajas.
Este índice de calidad puede determinarse a partir de la carga o ionización obtenida
por la cámara a la profundidad en agua del 50% de la ionización máxima, R50,ion. El R50,ion
se ha de convertir a R50 de dosis absorbida, y para ello se utilizan las expresiones:

[20]

El índice de calidad interviene en la definición de las condiciones de referencia y en la


determinación de la elección del factor kQQ0:

Condiciones de referencia
En el cuadro 10-2 se detallan las condiciones de referencia para determinar la dosis
absorbida en agua en haces de electrones. La profundidad de referencia de medida, zref ,
es variable y dependiente del índice de calidad R50, de manera que:

[21]

Cuadr o 10- 2 Re sum e n de la s condicione s de re fe re ncia pa ra la


de t e rm ina ción de la dosis a bsorbida e n ha ce s de e le ct rone s
Tipo de cámara
R50 ≥4 g/cm2 → plano-paralela o cilíndrica
R50 <4 g/cm2 → plano-paralela

Maniquí
R50 ≥4 g/cm2 → agua
R50 <4 g/cm2 → agua o plástico

Profundidad de medida (zref)


zre f = 0,6 R50 − 0,1 (zre f y R50 en g/cm2)

Punto de referencia de la cámara


Plano-paralela: en el centro de la cara interna de la ventana
Cilíndrica: en el eje central y en el centro de la cavidad
Posición del punto de referencia
Plano-paralela: a la profundidad de medida zre f
Cilíndrica: 0,5 r por debajo de zre f

DFS
100 cm
Tamaño de campo en la superficie
≥10 cm × 10 cm
DFS: distancia desde el foco a la superficie del maniquí.

Para bajas energías (R50 <4 g/cm2), zref difiere muy poco de la profundidad del máximo
de dosis absorbida (R100); sin embargo, para altas energía zref es mayor que la profundidad
del máximo. Si las medidas se realizan en plástico, debe emplearse un factor de escala, cpl,
para calcular la profundidad de agua equivalente a la de medida en plástico, de forma
que:

[22]

Elección de kQQ0
La elección del factor kQQ0 puede obtenerse de dos maneras:
• Valores tabulados para distintas calidades de R50 y para un conjunto de CI plano-
paralelas y cilíndricas, cuando la calidad de calibración Q0 corresponde a 60Co.
• Calibración interna o cruzada, en la cual la cámara plano-paralela del usuario se
compara con una cámara de ionización, de la que se dispone de un coeficiente de
calibración establecido por un laboratorio de calibración, en el haz de electrones de
mayor energía disponible por el usuario.

5.4. Laboratorios de calibración. Patrones primarios


El Sistema Internacional de Medida para la metrología de las radiaciones proporciona la
estructura necesaria para la concordancia en la dosimetría de las radiaciones,
diseminando entre los usuarios instrumentos de radiación calibrados que son trazables a
patrones primarios5. La Oficina Internacional de Pesas y Medidas (BIPM, Bureau
International des Poids et Mesures) se constituye como el centro internacional para la
metrología con el objetivo de garantizar la uniformidad en lo concerniente a esta. Los
laboratorios de calibración primarios (LCPD) han desarrollado patrones primarios para
la medida de las radiaciones que se comparan con los de la BIPM. Sin embargo, sólo hay
una veintena de países con LCPD y no pueden calibrar el gran número de dosímetros
que se usan en todo el mundo.
Los laboratorios nacionales que mantienen patrones primarios calibran los patrones
secundarios6 de los laboratorios de calibración secundarios (LCSD), que a su vez calibran
los instrumentos de los usuarios (hospitales). Por tanto, el papel de los LSCD es servir de
enlace entre los LPCD y los usuarios de radiaciones ionizantes, permitiendo la
transferencia de las calibraciones de los dosímetros desde el patrón primario hasta los
instrumentos del usuario. Esto supone un procedimiento de calibración escalonado, cuya
consecuencia es que puede decirse que las medidas son trazables a los patrones
primarios. Para haces de radiación gamma de 60Co, la mayoría de los LCSD pueden
proporcionar a los usuarios factores de calibración en términos de dosis absorbida en
agua sin mucho esfuerzo experimental, puesto que todos cuentan con este tipo de haces.
Sin embargo, no les es posible, en general, suministrar factores de calibración
determinados experimentalmente para haces de fotones y electrones de alta energía.
En España, el Laboratorio de Metrología de Radiaciones Ionizantes, ubicado en el
Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas (CIEMAT), es el
encargado de establecer, mantener y diseminar el patrón nacional7 de dosis absorbida,
así como de asegurar la trazabilidad internacional de dicho patrón respecto a la BIPM.
Actualmente, los procedimientos empleados en los LPCD para determinar dosis
absorbida en agua, esto es, los patrones primarios establecidos en haces de radiación
gamma de 60Co, o en haces de fotones y electrones producidos por aceleradores, se basan
en uno de los siguientes métodos:
• Cámara de ionización: consiste en una cámara de cavidad de grafito cuyo volumen se
conoce con una exactitud suficientemente buena, diseñada para cumplir, hasta donde
sea posible, los requisitos de un detector de Bragg-Gray. La cámara se coloca en un
maniquí de agua y la dosis absorbida en agua, en el punto de referencia, se obtiene a
partir de la energía específica media impartida al aire de la cavidad.
• Calorímetro de grafito: desarrollado por Domen y Lamperti, se utiliza con ligeras
variaciones en varios LCPD para determinar la dosis en grafito, en un maniquí de
grafito. La conversión a dosis absorbida en agua, en el punto de referencia en un
maniquí de agua, se realiza aplicando factores de conversión.
• Calorímetro de agua: permite la determinación directa de la dosis absorbida en agua en
un maniquí de agua. El sistema sellado de agua consiste en un pequeño recipiente de
cristal que contiene agua de alta pureza y un termistor para medir la temperatura. Se
basa en el principio por el cual la energía absorbida en el medio procedente de la
radiación ionizante se transforma en calor, con el correspondiente aumento de la
temperatura del medio absorbente.
• Dosimetría química, patrón de Fricke: se basa en el cambio químico producido en una
solución de sulfato ferroso al absorber la energía procedente de la radiación ionizante.
Cuando la solución es irradiada, los iones ferrosos, Fe2+, son oxidados por la radiación
a iones férricos, Fe3+. La concentración de iones férricos, determinada por
espectrofotometría, cambia la absorbancia de la solución.
Estos métodos son ejemplos de dosímetros absolutos, es decir, dosímetros a partir de los
cuales puede determinarse la dosis absorbida sin la necesidad de ser calibrados en un
campo de radiación conocido.
6. Resumen
• La propagación de un haz de radiación en aire o vacío está gobernada por la ley del
inverso del cuadrado de la distancia.
• La variación de la dosis absorbida con la profundidad en un medio absorbente, a lo
largo del eje central del haz se caracteriza por el porcentaje de dosis en profundidad
(PDD), para una geometría distancia fuente-superficie (DFS), y mediante el tissue-
phantom ratio (TPR) para geometrías distancia fuente-eje (DFE).
• El TPR20,10 representa el indicador de calidad de un haz de fotones, mientras que para
un haz de electrones se emplea el R50 (cm), profundidad a la que se tiene el 50% de la
dosis absorbida en el máximo, y se obtiene a partir del PDD.
• Las distribuciones de dosis fuera del eje del haz se caracterizan mediante perfiles, a
partir de los cuales puede definirse el tamaño del campo de radiación y la penumbra.
Los parámetros que cuantifican la uniformidad del perfil son la simetría y el índice de
homogeneidad o planitud.
• La teoría de Bragg-Gray permite calcular la dosis absorbida en un medio
(habitualmente agua) a partir de la carga producida en un gas de una cavidad que se
encuentra inmersa en dicho medio. Para ello, debe existir equilibrio electrónico de
partículas cargadas (CPE) a la profundidad a la cual se realiza la medida (las energías,
el número y las direcciones de las partículas son constantes a través del volumen de la
cavidad).
• En el cálculo de dosis absorbida, según la teoría de Bragg-Gray, deben introducirse
factores de perturbación, que tienen en cuenta que los detectores empleados para la
medida no son puntuales, y además están constituidos por otros elementos cuya
densidad no es equivalente al medio (perturbación producida por la cavidad, por la
pared, por el electrodo central o por desplazamiento del medio).
• El sistema de dosimetría más habitual es el conjunto electrómetro-cámara de
ionización. Las cámaras de ionización pueden ser cilíndricas tipo Farmer o plano-
paralelas. Las lecturas realizadas con estas cámaras tienen que ser corregidas por
magnitudes de influencia, como fugas, efecto tallo, presión y temperatura, polaridad y
recombinación de iones.
• Para la determinación de la dosis absorbida en agua a una profundidad de referencia
para una calidad Q, Dw,Q, se emplea el protocolo TRS-398 de la IAEA, según el cual
Dw,Q = MQ ND,w,Q0 k QQ0 (MQ: carga eléctrica corregida por las magnitudes de influencia;
ND,w,Q0: coeficiente de calibración de la CI (Gy/nC); k QQ0: factor que corrige por la
diferencia entre la calidad de referencia del haz Q0 y la calidad real del usuario Q).
• En España, el Laboratorio de Metrología de Radiaciones Ionizantes, ubicado en el
CIEMAT, es el encargado de calibrar los dosímetros del usuario de acuerdo a un patrón
nacional de dosis absorbida, que se encuentra trazado al patrón primario de la Oficina
Internacional de Pesas y Medidas (BIPM) consistente en una CI de cavidad de grafito
en un haz de radiación de 60Co. Otros laboratorios de calibración primarios utilizan
como patrones primarios calorímetro de grafito, calorímetro de agua o dosimetría
química o de Fricke.
Bibliografía
Andreo P, Burns DT, Hohlfeld K, Huq MS, Kanai T, Laitano F, et al. Absorbed dose determination in external beam
radiotherapy: an internacional code of practice for dosimetry based on standards of absorbed dose to water. IAEA
Technical Report Series n° 398. Vienna: International Atomic Energy Agency; 2000.
Chen J, Chuang CF, Morin O, Aubin M, Pouliot J. Calibration of an amorphous-silicon flat panel portal imager for exit-
beam dosimetry. Med Phys. 2006;33:584–594.
Fernández-Varea JM, Brosed A, González Lestón AM, Gracia Ezpeleta A. Fundamentos de física médica. Vol. 1: Medida de la
radiación. Madrid: ADI; 2011.
Khan FM. The physics of radiation therapy. 4th ed. Baltimore: Lippincott Williams & Wilkins; 2010.
Lizuain Arroyo MC, Hernández Vitoria A, Picón Olmos C. Fundamentos de física médica. Vol. 3: Radioterapia externa I.
Bases físicas, equipos, determinación de la dosis absorbida y programa de garantía de calidad. Madrid: ADI; 2012.
Podgorsak EB, Andreo P, Evans MDC, Hendry JH, Horton JL, Izewska J, et al. Radiation oncology physics: a handbook for
teachers and students. Vienna: IAEA; 2005: Disponible en: http://www-
pub.iaea.org/mtcd/publications/pdf/pub1196_web.pdf.
Warketin B, Steciw S, Rathee S, Fallone BG. Dosimetric IMRT verification with a flat-panel EPID. Med Phys.
2003;30:3143–3155.

1
El número atómico, Z, del material de la pared debe ser bajo para que sea equivalente a aire. De este modo se asegura
que el espectro de energía de los electrones liberados en la pared de la cámara es similar al de los liberados en el aire.
2
Representa el número atómico de un elemento con el cual los fotones interaccionan de la misma manera que con el
material en cuestión.
3
Un material es amorfo cuando sus átomos no se encuentran ordenados según una red cristalina.
4
En el protocolo TRS-398, las profundidades se expresan en g/cm 2; de esta forma se indica que son profundidades
equivalentes a agua.
5
Instrumento de la más alta calidad metrológica que permite la determinación de la unidad de una magnitud desde su
definición, y cuya exactitud ha sido verificada por comparación con los patrones de otras instituciones del mismo nivel.
6
Instrumento calibrado por comparación con un patrón primario.
7
Patrón reconocido por una decisión oficial nacional como base para fijar en un país el valor de todos los demás patrones
de una magnitud dada.
C AP Í T U L O 1 1
Radiobiología
Patricia Sánchez Rubio

ÍNDICE
1. Introducción 161
2. Etapas de la acción biológica de la radiación 161
2.1. Etapa física 161
2.2. Etapa química 162
2.3. Etapa biológica 162
3. Efectos de la radiación sobre el ADN 162
4. Efectos celulares de la radiación 163
4.1. Muerte celular y curvas de supervivencia 164
5. Modificación de la sensibilidad celular 166
5.1. Tipo de radiación 166
5.2. El oxígeno 167
6. Crecimiento tumoral 167
6.1. Modelos teóricos de crecimiento tumoral 167
7. Tejidos sanos 168
7.1. Clasificación 168
7.2. Dosis de tolerancia. Respuestas precoces
y tardías 169
8. El fraccionamiento en radioterapia: modelo de isoefecto 169
8.1. Tipos de fraccionamiento 171
9. El efecto de la tasa de dosis 172
10. Relaciones dosis-respuesta 173
10.1. Ventana terapéutica 173
11. Resumen 174
Bibliografía 175
1. Introducción
La radiobiología estudia los fenómenos que se producen en los seres vivos tras la
absorción de energía procedente de la radiación ionizante. Su conocimiento proporciona
las bases conceptuales para los criterios de elección de dosis y de esquemas terapéuticos
basándose en las respuestas de los tejidos tumoral y sano.
2. Etapas de la acción biológica de la radiación
El estudio de la acción biológica de la radiación puede estructurarse en tres etapas que
ocurren secuencialmente tras la interacción de la radiación con la materia, pero cuya
duración temporal transcurre en distinta escala temporal.

2.1. Etapa física (10−18-10−12 segundo)


Como consecuencia de la interacción de las partículas cargadas y los átomos que
componen un tejido se producen ionizaciones y excitaciones. Una dosis absorbida de
1 Gy produce unas 105 ionizaciones en un volumen celular típico de 10 µm de diámetro.
En general, y en lo relativo al depósito de energía en el medio irradiado, un electrón
con una energía de 1 MeV penetra pocos milímetros en los tejidos. Al principio de su
trayectoria se mueve muy rápido, de manera que deposita poca cantidad de energía,
dando lugar a ionizaciones que pueden estar separadas una distancia promedio de
0,1 µm. Se dice entonces que la radiación presenta baja transferencia lineal de energía (LET,
linear energy transfer; energía cedida por unidad de longitud de la trayectoria seguida por
la radiación). Conforme el electrón va perdiendo velocidad interacciona con mayor
probabilidad con los electrones orbitales de los átomos que forman el medio. Su
trayectoria se hace más tortuosa y aumenta la densidad de ionizaciones. La característica
microdosimétrica más importante es la formación de racimos de ionizaciones, de tamaño
del orden de nanómetros, que aparecen al final de su trayectoria. Es importante destacar
que los efectos lesivos de los distintos tipos de radiación varían de manera considerable
en función de la densidad de las ionizaciones producidas.

2.2. Etapa química (10−12-1 segundo)


Los átomos y las moléculas afectados por la radiación reaccionan químicamente entre sí y
con otros componentes celulares. Los enlaces químicos rotos por efecto de la radiación
conllevan la aparición de radicales libres1 que son altamente reactivos.
Puesto que las células están formadas en un 80% por agua, los radicales libres que
aparecerán serán los resultantes de la radiólisis del agua. La radiólisis del agua es un
fenómeno complejo que se inicia tras la ionización de la molécula de agua, pudiendo
darse dos posibilidades (hay más, como es la disociación electrolítica en dos iones y dos
electrones apareados poco reactivos), expresadas más abajo. Una, donde la molécula de
agua irradiada da lugar un electrón y un ion H2O+, que a su vez da lugar a radicales
neutros HO• muy reactivos y iones H+, y otra donde se producen de manera más directa
los radicales HO• y H•:
En el primer caso, la molécula de agua ionizada, H2O+, es altamente inestable (vida
media 10−10 s) y se descompone rápidamente para formar un ion hidrógeno (H+) y un
radical hidroxilo (HO•) que contiene un electrón desapareado y es altamente reactivo. El
electrón arrancado por la radiación se combina con moléculas de agua fuertemente
polarizadas, adquiriendo una configuración especial que se denomina electrón acuoso (eac)
o «disuelto». Estos electrones tienen la capacidad de disociar moléculas de agua
próximas, en radicales HO• y H•.
En el segundo caso, las moléculas de agua excitadas, H2O* cuyo comportamiento es
mal conocido, teóricamente se pueden disociar en radicales HO• y H•, aunque su
probabilidad es reducida.
Los radicales resultantes (HO•, H• y eac) son altamente reactivos y pueden conducir a la
reconstrucción de la molécula de agua a través de reacciones posteriores, pero lo más
habitual es la formación de otras moléculas o radicales, como el peróxido de hidrógeno
(H2O2), que es un agente oxidante. La proporción y la distribución de las distintas
especies dependerán del tipo de radiación, del tipo de célula y de las características
ambientales (p. ej., presencia de oxígeno).
Se habla de acción indirecta de la radiación cuando la lesión de las moléculas vitales
(ADN, ácido desoxirribonucleico) se produce a través de radicales libres producidos por
la ionización del agua, frente a una acción directa, en la cual la lesión se produce por la
ionización de las propias moléculas.

2.3. Etapa biológica (segundos, horas o días)


Posteriormente a la etapa química, sucede la etapa biológica, en la cual tienen lugar
reacciones enzimáticas que actúan sobre el daño químico residual, de tal modo que la
mayoría de las lesiones radioinducidas son reparadas con éxito (incluidas las del ADN).
En otras circunstancias, suceden lesiones complejas que no pueden ser reparadas, y esto
puede conducir a la muerte celular. Los cambios biológicos resultantes de la irradiación
celular se manifiestan sólo cuando ha transcurrido cierto periodo de tiempo,
denominado tiempo de latencia, que depende del efecto que se intente observar y de la
dosis absorbida. Este periodo de latencia puede variar desde unas semanas o meses, para
los efectos agudos, hasta varios años después de la exposición para las reacciones tardías
(fibrosis y telangiectasia de la piel, daño de la médula espinal) o la carcinogénesis
(tumores radioinducidos).
3. Efectos de la radiación sobre el ADN
Los radicales libres producidos por la interacción de la radiación con las moléculas de
agua reaccionan con diversas macromoléculas celulares. La mayoría de estas reacciones
no son importantes para la supervivencia; son los daños provocados en la molécula de
ADN, ubicada en el núcleo de la célula, la principal causa de los efectos radiobiológicos.
La irradiación del ADN puede dar lugar a varios tipos de lesiones radioinducidas en
función de la componente dañada:
• Roturas de la cadena de ADN: pueden ser roturas simples o dobles, en las que están
implicadas las dos cadenas de la doble hélice del ADN.
• Alteración de bases: las bases2 pueden ser en parte destruidas o modificadas
químicamente por la radiación.
• Destrucción de azúcares y otras lesiones: la radiación puede producir alteraciones de la
desoxirribosa, cruces de eslabones en la espiral, uniones de dos partes de una cadena
simple, uniones entre cadenas, etc.
No todas las lesiones son igualmente críticas para la célula, de forma que el único
efecto que ha podido correlacionarse con los efectos celulares (muerte y mutación) son
las roturas dobles de cadena.
La célula puede seguir manteniendo su capacidad reproductiva, a pesar de algunas de
las lesiones producidas por la radiación, que sin embargo pueden dar lugar a una
mutación (cambio local del código genético) o a una aberración cromosómica (cambios o
desapariciones, o ambos, en los cromosomas). Los distintos tipos de lesiones pueden ser
efectivamente reparados por la célula o puede darse una reparación errónea. Si no son
reparados de manera apropiada, el resultado para la célula puede ser de dos tipos:
• La célula muere: los errores en la reparación son incompatibles con la funcionalidad
celular y producen la muerte, por ejemplo, mediante apoptosis (muerte por
autodestrucción programada mediante fragmentación y fagocitosis). La muerte de las
células no tendrá consecuencias graves para el organismo, salvo que su número sea
muy grande.
• La reparación errónea es compatible con la funcionalidad de la célula: los errores son
heredados por la descendencia, dando origen a una nueva familia de células mutadas.
Si la célula transformada es somática puede causar una enfermedad maligna, y si es
germinal dará lugar a efectos hereditarios.
En la figura 11-1 se esquematiza la secuencia de procesos que siguen a la inducción
inicial del daño producido por los radicales libres al ADN, y que pueden conducir a la
muerte celular o a mutaciones.
FIGURA 11-1 Esquema de la secuencia de procesos que tienen lugar tras la liberación de
radicales libres y el daño inicial que provocan sobre el ADN. (Modificada de Ciudad Platero J, Guirado
Llorente D, Sánchez-Reyes Fernández A, Sanjuanbenito Ruiz de Alda W, Velásquez Miranda S. Radiobiología clínica, 1ª
ed. Madrid: Impresur Artes Gráficas; 2003.)
4. Efectos celulares de la radiación
La radiosensibilidad de la célula varía en función de la etapa del ciclo celular en la que se
lleve a cabo la irradiación. El ciclo vital de la célula pasa por cuatro etapas perfectamente
diferenciadas (fig. 11-2), con dos estados diferenciados interfase y fase M.
• Fase G1: en esta fase crece el material celular (síntesis de proteínas y ARN) y es
metabólicamente muy activa. En este estado la célula avanza o se prepara para la
división en un proceso que está constituido por las otras tres fases del ciclo.
• Fase S o de síntesis: durante este periodo se sintetiza una copia del ADN, de modo que al
final de este periodo la célula, todavía no dividida, cuenta con dos copias de su ADN.
Una vez completada la replicación del ADN entra en la siguiente etapa.
• Fase G2: se preparan los mecanismos necesarios para llevar a cabo la fragmentación
celular que se desarrollará en el siguiente paso, la fase de mitosis (M).
• Fase M de mitosis y citocinesis: se produce la división de la célula en dos células hijas,
cada una con su correspondiente copia de ADN. Tras esta fase, vuelven a la fase G0
para desarrollar su actividad fisiológica concreta. Las células en G0 pueden volver a
entrar en división estimuladas por agentes externos.

FIGURA 11-2 Ciclo celular. Las células son más radiosensibles cuando se encuentran en la fase
de mitosis (M) y más radiorresistentes en las fases de síntesis (S) y G0; las fases G1 y G2 tienen
una radiosensibilidad intermedia.

Las células en G0, G1, S y G2 se encuentran en interfase.


El proceso de replicación es controlado por un grupo de proteínas que tienen por
finalidad supervisar el ciclo celular, de manera que ninguna célula entra en una nueva
fase hasta no haberse superado unas comprobaciones previas denominadas puntos de
control. Estos puntos de control responden al daño con la parada del ciclo celular para
que la célula disponga de tiempo para la reparación, es decir, se produce un retraso
(retraso mitótico) cuya duración dependerá de la fase del ciclo en que la célula ha sido
irradiada. En general, el momento más sensible a la radiación es el comprendido desde la
parte final de G2 hasta el final de la mitosis, aunque esto depende de la estirpe celular,
mientras que las fases más radiorresistentes son S, G1 y G0.
Como resultado de la irradiación, la respuesta de la célula puede ser: 1) la muerte
diferida, que supone que las células sólo efectúan unos pocos ciclos antes de morir;
2) célula viable, pero modificada en su genoma, cuya modificación puede manifestarse
tras un periodo de latencia más o menos largo; y 3) muerte celular. En radioterapia, desde
un punto de vista teórico, un tumor se considera controlado cuando todas sus células han
perdido la capacidad proliferativa de manera indefinida y, por tanto, la capacidad de
invasión local y de metástasis a distancia. Es decir, con la terapia se persigue producir en
las células tumorales la muerte diferida o la muerte celular. A continuación se describe
cómo puede cuantificarse esta muerte celular.

4.1. Muerte celular y curvas de supervivencia


La muerte celular se cuantifica mediante una curva de supervivencia, que consiste en la
representación gráfica de la fracción de células supervivientes en función de la dosis
administrada. La fracción de supervivencia, s, viene dada por:

[1]

donde N(D) es el número de células supervivientes tras la dosis D y N0 es el número


de células inicial.
La representación de las curvas de supervivencia se realiza en escala logarítmica en el
eje de ordenadas, para s, frente a la dosis en escala lineal en el eje de abscisas (fig. 11-3).
FIGURA 11-3 Curva de supervivencia celular determinada a partir de un ensayo clonogénico (se
muestra un esquema de cómo disminuye el número de colonias a medida que aumenta la dosis).

La curva de supervivencia de una población celular se obtiene a partir de un ensayo


clonogénico in vitro, el cual consiste en la siembra de un número determinado de células;
se conserva una muestra de control y se irradia el resto con diferentes dosis; se cultivan
durante varios días y se procede a contar las colonias formadas (se entiende por colonia
aquella población de células integrada por un mínimo de 50 elementos formados a partir
de una sola célula). Si se define la eficacia de la siembra como el número de colonias
formadas dividido por el número de células sembradas, la supervivencia para una
dosis D se obtiene dividiendo la eficacia de la siembra de la muestra irradiada por la
eficacia de la siembra de control, esto es:

[2]

donde C(D) y C0 son el número de colonias formadas tras la dosis D y para el control,
respectivamente, M(D) es el número de células sembradas en la muestra irradiada con
una dosis D y M0 es el número de células sembradas en la muestra de control.
Para una población de células en la cual la muerte por radiación supere a la
proliferación, las curvas de supervivencia serán monótonas decrecientes.
A continuación, se describen distintos modelos teóricos para las curvas de
supervivencia, basados en lo que se denomina la teoría del blanco (o target). Tales modelos
parten de la idea de que puede haber regiones específicas en el ADN (blancos) que son de
vital importancia para mantener la capacidad reproductiva de la célula, de modo que la
supervivencia celular tras la irradiación depende del número de blancos que hayan sido
inactivados.
Modelo exponencial
La célula muere cuando en ella se produce la inactivación de un solo blanco que la lleva a
la muerte. Puesto que estos eventos «mortales» de inactivación se distribuyen
aleatoriamente según una distribución de Poisson3, la probabilidad de supervivencia
vendrá determinada por la probabilidad del evento nulo, es decir, la probabilidad de que
no se produzca la inactivación del blanco. Si el número medio de eventos producido en
cada célula es N, la probabilidad de evento nulo es P(N, 0) = e−N. Como el número medio
de eventos por célula será proporcional a la dosis, P(N, 0) puede expresarse como P(0) = e
−D/D0
, donde D0 es la dosis necesaria para producir tantos eventos mortales como células
(un evento mortal por célula en término medio), o la dosis necesaria para reducir la
supervivencia a un 37%. La curva de supervivencia para este tipo de modelo es una línea
recta (fig. 11-4A).

FIGURA 11-4 Curvas de supervivencia celular para distintos modelos: A) exponencial; B)


multiblanco; C) mixto; D) lineal-cuadrático: α (pendiente inicial de la curva) representa la
componente irreparable del daño celular, mientras que β (curvatura de la curva) es la componente
reparable.

Modelo multiblanco
La célula dispone de n elementos vitales, de forma que la muerte se produce cuando la
radiación inactiva todos los blancos.
Siguiendo el mismo razonamiento que en el modelo anterior, la probabilidad de
evento nulo en el i-ésimo blanco será Pi (0) = e−D/D0, y por tanto la probabilidad de blanco
inactivado será Pi (1) = 1 − e−D/D0. Puesto que la célula dispone de n blancos vitales, la
probabilidad de que todos ellos estén inactivados será Pn (1) = Πi Pi(1) = (1 − e−D/D0)n, con lo
cual la probabilidad de que no todos los blancos estén inactivados, esto es, la
probabilidad de supervivencia de la célula, será Pn (1) = 1 − (1 − e−D/D0)n.
La curva de supervivencia muestra un hombro (una zona plana) en la región de bajas
dosis (fig. 11-4B).

Modelo mixto
El modelo multiblanco describe una curva de supervivencia en la cual la pendiente inicial
es nula, es decir, que en la región de baja dosis, a medida que esta aumenta, no se
produce la muerte celular. Puesto que esto es contrario a las evidencias experimentales,
se introduce el modelo mixto. En este modelo existen dos vías de muerte celular: la
inactivación conjunta de n blancos secundarios o la inactivación de un blanco principal.
La probabilidad de supervivencia es ahora producto de dos componentes: la
probabilidad de sobrevivir a la inactivación del blanco principal (modelo de blanco
único) y la probabilidad de sobrevivir a la inactivación de todos los blancos secundarios
(corregida por la probabilidad de impactar sobre un blanco único):

[3]

donde D1 es la dosis necesaria en la región de baja dosis para reducir la supervivencia


de 1 a 0,37. Determina la pendiente inicial de la curva de supervivencia (fig. 11-4C).

Modelo lineal-cuadrático (LQ)


El modelo mixto tampoco consigue describir por completo la forma cóncava de las curvas
de supervivencia determinadas experimentalmente. Para obtener una forma más
adecuada de la curva, se añade al término lineal en la exponencial (que como ya hemos
visto determina la probabilidad de producir daño letal por impacto único) un término
cuadrático que determina la probabilidad de producir daño letal por acumulación de
impactos subletales, de manera que la fracción de supervivencia, s, viene dada por:

[4]

Los parámetros α y β son constantes características de la población celular estudiada, y


determinan la forma de la curva (fig. 11-4D), representando α la componente irreparable
del daño celular (pendiente inicial de la curva de supervivencia) y β la componente
reparable (determina la curvatura de la curva de supervivencia). Su cociente α/β es la
dosis (en Gy) para la cual la contribución de ambas componentes se iguala.
Las condiciones en que puede aplicarse este modelo son:
• La dosis se administra en un tiempo mucho menor que el tiempo medio de reparación
del daño subletal (daño que puede ser reparado o producir la muerte de la célula por
acumulación tras una dosis de radiación adicional).
• Durante la irradiación la repoblación celular es despreciable.
• Si la dosis se administra en fracciones, el intervalo de tiempo entre dos irradiaciones
consecutivas es suficientemente largo como para que la reparación de todo el daño
subletal sea completa.
La forma del modelo para una aplicación fraccionada de la dosis es:

[5]

donde D es la dosis total impartida en n fracciones y dk es la dosis de la fracción k-


ésima.
5. Modificación de la sensibilidad celular
5.1. Tipo de radiación
Para igual valor de dosis administrada, la toxicidad celular es distinta según el tipo de
radiación empleada (rayos X, rayos gamma, partículas alfa, protones, neutrones, etc.).
Esto se debe a que cada tipo de radiación produce una distribución espacio-temporal del
depósito de energía diferente, es decir, cada tipo de radiación presenta una LET
característica, de modo que las radiaciones con baja LET (rayos X) provocan una ligera
ionización a lo largo de su recorrido, mientras que las radiaciones de alta LET (iones
acelerados, como protones o partículas alfa) generan una densa ionización. Cuando la
LET aumenta, la curva de supervivencia se hace más inclinada y más recta (con menos
hombro), lo que indica que la radiación de alta LET produce un mayor número de
lesiones letales, o que es menos probable que el daño producido por la radiación se
repare correctamente (fig. 11-5A).
FIGURA 11-5 Variación de la curva de supervivencia en función del tipo de radiación incidente (A) o
de las condiciones de oxigenación en que se encuentran las células (B). El factor de potenciación de
oxígeno (OER) para una supervivencia de un 1% es 2,54.

La magnitud que caracteriza la radiotoxicidad de un tipo de radiación es la eficacia


biológica relativa (RBE, relative biological effectiveness), que se define como el cociente de la
dosis de una determinada radiación de referencia, habitualmente rayos X de 250 kVp,
para producir un determinado efecto biológico, entre la dosis de otro tipo de radiación
para producir el mismo efecto biológico. La RBE es una función creciente con la LET que
alcanza un valor máximo en torno a los 100-200 keV/µm. Para valores más altos aparece el
fenómeno de sobremuerte (overkill), que se interpreta como una concentración
innecesariamente alta de daño irreparable.
5.2. El oxígeno
El oxígeno es un radiosensibilizador, es decir, el efecto biológico de la radiación es mayor
en su presencia porque incrementa el efecto de los radicales libres liberados como
consecuencia de la radiólisis del agua, o su reacción con radicales orgánicos disueltos da
lugar a la formación de sustancias tóxicas que provocan nuevas lesiones que se suman a
las producidas por la radiación en ausencia de oxígeno. La figura 11-5B muestra cómo las
células irradiadas en presencia de aire son más sensibles que las irradiadas bajo
condiciones de hipoxia.
El efecto del oxígeno se cuantifica mediante el factor de potenciación del oxígeno (OER,
oxygen enhancement ratio) como la proporción en la que se ha de aumentar la dosis cuando
esta se imparte en condiciones de hipoxia, para obtener un efecto radioquímico o
biológico idéntico al que se obtendría en condiciones de buena oxigenación:

[6]

Para radiaciones de baja LET (rayos X y fotones) toma valores entre 2,5 y 3, lo que
significa que se requiere incrementar la dosis en un factor de 2,5 a 3 para producir el
mismo efecto que cuando se irradia en presencia de oxígeno. Para radiaciones de alta LET
(partículas alfa, protones) el efecto oxígeno es menos intenso, y llega a ser despreciable
para valores muy altos de LET (≥200 keV/µ). Este comportamiento se debe a que las
radiaciones de alta LET provocan daño al ADN de manera directa, por la fuerte
concentración espacio-temporal de ionizaciones, sin mediar reacciones químicas que
puedan ser modificadas en presencia de oxígeno.
En general son radiosensibilizantes todas aquellas sustancias que poseen un alto
potencial oxidante, de manera que hacen a las células más sensibles a los efectos de la
radiación. Por el contrario, las sustancias radioprotectoras son aquellas que al estar
presentes durante la irradiación disminuyen sus efectos debido a que se recombinan con
los radicales libres, por lo que tienen una acción preventiva. Sin embargo, la toxicidad de
estos compuestos limita su uso práctico.
6. Crecimiento tumoral
Un tumor es una neoplasia, es decir, una masa de tejido cuyo crecimiento supera al de los
tejidos normales de los que procede, y que tiene capacidad de invasión local o de
producir metástasis a distancia. Este crecimiento se caracteriza por la desorganización de
su estructura tisular y el desarrollo anormal, y en general insuficiente, de vasos
sanguíneos. Así, las células que componen un tumor crecen en un ambiente precario en
nutrientes y oxígeno.
El tumor está formado por un conjunto de nódulos tumorales cuya forma dependerá de
cómo se desarrolle el sistema vascular en las diferentes regiones que lo integran. El
término nódulo tumoral constituye una subunidad tumoral que presenta un cierto patrón
morfológico en el que se distinguen los siguientes compartimentos:
• Una zona proliferativa: región con un aporte suficiente de oxígeno y nutrientes, en el
cual las células están dentro del ciclo proliferativo y, por tanto, contribuyen al
crecimiento del tumor con nuevas células tumorales.
• Una zona de hipoxia: región con déficit de nutrientes, con células en fase quiescente
(células que pueden volver al ciclo) y células diferenciadas (estériles) que no pueden
dividirse.
• Estroma: tejido normal, como vasos sanguíneos y fibroblastos.
• Una zona de necrosis donde se acumulan desechos y células muertas.
La cinética tumoral puede interpretarse como movimientos de las células por estas
zonas o compartimentos (modelo compartimental), por ejemplo el paso de la quiescencia a
la proliferación (reclutamiento) como consecuencia de un tratamiento; el abandono de
células viables de la masa tumoral, bien como células viables, lo que podría originar
metástasis, o por muerte; o la pérdida celular al producirse el fenómeno de
diferenciación natural.

6.1. Modelos teóricos de crecimiento tumoral


Los modelos de crecimiento tumoral son relaciones matemáticas que expresan la
variación del tamaño del tumor con el tiempo. Dicho crecimiento será la resultante de
dos procesos opuestos: la duplicación y la pérdida celular.

Crecimiento exponencial
Si se asume que el tiempo de división celular es constante, que todas las células son
activas y que el tumor no sufre pérdida celular, entonces el número de clonógenos
(células madre neoplásicas) seguirá una exponencial caracterizada por un tiempo de
duplicación TD, o tiempo necesario para que el volumen se haga doble:

[7]
donde V0 es el volumen inicial para t = t0.
En la figura 11-6A se aprecia un largo periodo de tiempo, denominado intervalo de
silencio o periodo de latencia, en el que no se aprecia crecimiento. Sin embargo, durante
este tiempo el tumor está creciendo a un ritmo regular y con un TD constante.

FIGURA 11-6 Modelos teóricos de crecimiento tumoral. A) Crecimiento exponencial. B) Modelo de


Gompertz.
Crecimiento no exponencial. Modelo de Gompertz
En los tumores de experimentación, in vivo e in vitro, el crecimiento no es exponencial,
sino que se ralentiza cuando aumenta el volumen. Esto puede deberse a un alargamiento
de la duración del ciclo celular, una reducción de la fracción de crecimiento (células fuera
del ciclo celular) o un aumento de la tasa de pérdida celular.
El crecimiento de un tumor sigue una curva sigmoide (fig. 11-6B) en la que se
distinguen tres fases bien diferenciadas: una fase inicial exponencial, una fase lineal y
una fase de plateau final:

[8]

Los parámetros A y a determinan la tasa de crecimiento. Para intervalos de tiempo muy


pequeños, la ecuación 7 se convierte en una exponencial (V(t) = V0 · eAat ), mientras que
para intervalos de tiempo muy largos e−a(t−t0) es despreciable frente a 1, y el volumen
tiende a un valor máximo de V0 · eA. Ahora el TD no toma un valor constante, sino que
aumenta progresivamente a medida que el tumor se hace más grande, es decir, el ritmo
de crecimiento se enlentece de manera progresiva.
7. Tejidos sanos
La proliferación celular en los tejidos normales es, en contraste con los tumores,
altamente organizada. En los tejidos maduros, siempre que no existan condiciones
patológicas, la producción de nuevas células está equilibrada con la desaparición de las
células diferenciadas maduras. La respuesta a la radiación consistirá en aumentar su tasa
de proliferación para compensar la pérdida celular.

7.1. Clasificación
En términos generales, los tejidos pueden clasificarse en diferentes categorías según se
atienda a su organización proliferativa o funcional.

Organización proliferativa
Según su organización proliferativa los tejidos pueden clasificarse como:
• Tejidos jerárquicos: se distinguen claramente los compartimentos de células
indiferenciadas, de amplificación (células que proliferan rápidamente, pero sólo para
un número limitado de divisiones) y células maduras. Son tejidos de gran renovación
celular, como la piel, las mucosas, el epitelio intestinal y el sistema hematopoyético.
• Tejidos flexibles: no hay compartimentos separados y las células diferenciadas son
capaces de dividirse si es preciso. Son tejidos de lenta reparación, como el hígado, el
riñón, el pulmón y el sistema nervioso.
El tiempo que transcurre entre la irradiación y la manifestación de un cierto daño se
denomina tiempo de latencia. Para los tejidos jerárquicos, la latencia es independiente de
la dosis recibida y está determinado por el periodo de vida de las células maduras, de
manera que el tiempo de latencia es corto; sin embargo, para los tejidos flexibles el
periodo de latencia es largo y depende de la dosis. Por tanto, el tiempo de latencia
depende de la tasa de renovación celular del tejido y no de la radiosensibilidad.

Organización funcional
Los tejidos normales están compuestos por estructuras elementales denominadas
subunidades funcionales (SUF), que son la mayor unidad de células capaces de ser
regeneradas a partir de una sola célula clonogénica, de modo que puede ser una sola
célula o una estructura compleja, como por ejemplo el nefrón. La organización de estas
SUF determinará si un tejido u órgano es en serie o en paralelo:
• Organización en paralelo: cada una de las SUF realiza la función de la cual el órgano es
responsable. Sin embargo, cuando se daña una sola SUF, el órgano es capaz de
mantener su función siempre y cuando algún porcentaje de las SUF mantenga su
función. Sólo cuando la cantidad de SUF dañadas supera un valor crítico (reserva
funcional) el tejido pierde su función. Por ejemplo, el riñón y el pulmón presentan una
estructura en paralelo, siendo sus SUF los nefrones y los alvéolos, respectivamente.
• Organización en serie: la muerte o la inactivación de una de las SUF es suficiente para
causar la pérdida de la función del tejido. Por ejemplo, la médula espinal.
7.2. Dosis de tolerancia. Respuestas precoces y tardías
La tolerancia de un cierto tejido para un determinado tratamiento con radiaciones se
define como la dosis que genera un índice de complicaciones aceptable para ese paciente
en particular. La dosis necesaria para alcanzar un cierto grado de efecto dependerá de
factores como el estado de salud del paciente, la medicación y, de manera importante, el
volumen tratado.
Los efectos de la radiación sobre los tejidos normales pueden ser de dos tipos:
• Precoces: el desarrollo de los efectos precoces en tejidos de rápida renovación está
determinado por su estructura jerárquica. El tiempo necesario para que se presenten
las reacciones está relacionado con la vida de las células diferenciadas, y la intensidad
de la reacción refleja el equilibrio entre la mortandad de las células madre y la
regeneración de los clonógenos supervivientes.
• Tardíos: suelen presentarse en tejidos de lenta proliferación, pero no sólo en ellos.

Efecto del volumen tratado


El efecto de volumen es distinto para los diferentes órganos dependiendo de su
organización, y es un factor importante para determinar la tolerancia clínica.
La radiosensibilidad de los tejidos depende de cómo se organicen sus SUF. Si se trata
de una organización en paralelo, como ocurre en el hígado y en el pulmón, los tejidos
tienen una gran capacidad de reserva funcional y muestran un pronunciado efecto
volumen, con un volumen umbral por debajo del cual no tiene lugar el daño funcional; es
decir, toleran bien la irradiación de volúmenes parciales con altas dosis, debido a que el
resto del órgano puede realizar las funciones necesarias, de manera que el riesgo de
desarrollar una complicación depende de la distribución de dosis en todo el órgano más
que de la dosis máxima recibida en una zona pequeña. Sin embargo, si presentan una
organización en serie, como la médula espinal, los tejidos tienen poca o ninguna reserva
funcional, de manera que la destrucción de una de estas unidades puede causar un fallo
en el funcionamiento del órgano entero, y por tanto son menos dependientes del
volumen irradiado que los tejidos con organización en paralelo. El riesgo de
complicaciones está fuertemente influenciado por las zonas que reciben altas dosis y
puntos calientes.
La modelización de los tejidos considerando una organización serie-paralelo explica la
aparente paradoja de que un órgano de alta tolerancia, como la médula espinal, pueda
ser deteriorado gravemente por la inactivación de una pequeña parte, o de que un órgano
con baja tolerancia, como el riñón, pueda soportar altas dosis en parte de su volumen sin
repercusiones vitales.
8. El fraccionamiento en radioterapia:
modelo de isoefecto
La mayor parte de los tratamientos en radioterapia se administran en una fracción diaria
de 1,8 o 2 Gy, 5 días por semana, hasta alcanzar la dosis total deseada, que normalmente
está limitada por el riesgo de aparición de efectos tardíos. Esta pauta se conoce como
tratamiento estándar. Sin embargo, a veces es necesario cambiar dicha pauta para
administrar dosis por fracción diferentes a la estándar, ya sea por averías en las unidades
de tratamiento, por necesidades de irradiación o por consideraciones de índole
radiobiológica. Un cambio de fraccionamiento puede afectar a la curación del tumor y a
la aparición de efectos agudos y tardíos, y por tanto debe reconsiderarse cuál será la
nueva dosis total respecto a la convencional que debe administrarse al paciente. Los
modelos de isoefecto intentan, precisamente, comparar la efectividad de los tratamientos
efectuados con pautas diferentes a la estándar.
El efecto biológico, E, en tejidos o tumores, está determinado por la fracción de
supervivencia celular s. Si se emplea el modelo LQ (ecuación 5) para un tratamiento
administrado en n fracciones de dosis d, suponiendo una recuperación celular total entre
sesión y sesión, E adoptará la siguiente forma:

[9]
Por tanto, dos esquemas de tratamiento (n1, d1) y (n2, d2) (n = número de fracciones,
d = dosis por fracción) que se imparten en el mismo tiempo total serán equivalentes para
un cierto efecto si E1 = E2. Es decir:

[10]

La ecuación 10 sólo depende del cociente α/β. Se ha demostrado que los tejidos con
respuesta tardía presentan valores pequeños de este cociente (α/β ≈ 2 Gy; mayor
curvatura de la curva de supervivencia), mientras que tejidos de respuesta aguda
presentan valores grandes de α/β (α/β ≈ 10-15 Gy; menor curvatura de la curva de
supervivencia) (fig. 11-7). Esta diferencia en los valores de α/β está relacionada con la
capacidad de reparación de los distintos tejidos. La lenta renovación de las células en
los tejidos de respuesta tardía permite que muchas células indiferenciadas permanezcan
en estado de reposo, en el cual son altamente eficientes para reparar el daño producido
por pequeñas dosis. En consecuencia, los tejidos con respuesta tardía son
particularmente sensibles a los cambios de fraccionamiento, para los que dosis por
fracción mayores son más dañinas, aunque pequeñas fracciones son bien toleradas
(fig. 11-8A). Por otro lado, los tumores y los tejidos con respuestas agudas se ven
afectados de manera diferente por los cambios en la duración total del tratamiento
respecto a los tejidos con respuesta tardía. Puesto que las células indiferenciadas
supervivientes de los tejidos con respuesta aguda inician la repoblación durante el
transcurso del tratamiento, el tiempo en el cual se distribuye la dosis total influye en el
grado final de daño; sin embargo, los tejidos con respuesta tardía no experimentan
repoblación durante el tratamiento y se ven poco afectados por los cambios en la
duración de este.

FIGURA 11-7 Curvas de supervivencia para tejidos de respuesta tardía y de respuesta aguda.
FIGURA 11-8 Efecto del fraccionamiento sobre los tejidos de respuesta tardía (A) y sobre tejidos
de respuesta aguda y tumores (B), para dos esquemas de tratamiento: seis fracciones de 2 Gy y
tres fracciones de 4 Gy. Fraccionar el tratamiento supone un aumento de la fracción de
supervivencia, aunque los tejidos de respuesta tardía son más sensibles a la dosis por fracción que
los de respuesta aguda y los tumores.

Puesto que en la región anatómica donde se aplica un tratamiento existen diferentes


tipos de tejidos, tanto de respuesta aguda como de respuesta tardía, y el tumor en sí
mismo puede estar constituido por células caracterizadas por distintos valores de α y β,
hay que tener en cuenta que no existe una pauta de tratamiento que sea equivalente a
otra de manera general, sino que la equivalencia sólo es válida para un tipo de efecto
producido para un tejido específico.
Se define la dosis biológica equivalente (DBE) como la dosis que se tendría que
administrar a un tejido, tumoral o sano, para conseguir el isoefecto deseado en fracciones
infinitamente pequeñas (n muy grande), suponiendo que la célula sólo tiene la
posibilidad de morir siguiendo la vía de muerte celular α:

[11]

La DBE tiene unidades de dosis absorbida (Gy). Además, como su formulación


establece que un cierto efecto se corresponde con una cierta fracción de células muertas,
la DBE es aditiva, es decir, el efecto global de varias irradiaciones consecutivas puede
calcularse como la suma de la DBE correspondiente a cada una de ellas.
Un inconveniente de la DBE es que su valor numérico suele ser mucho más grande que
las dosis de prescripción habituales, y por tanto es difícil relacionarlo con la práctica
diaria. Por este motivo, lo que se hace es convertir un esquema de tratamiento en uno
equivalente a 2 Gy por fracción, de manera que empleando las ecuaciones 10 y 11 se
deduce que la dosis equivalente a 2 Gy (DE2) es:

[12]

donde d es la dosis por fracción del esquema para el que se calcula la equivalencia.

8.1. Tipos de fraccionamiento


El fraccionamiento, es decir, la distribución de dosis en el tiempo, influye en el resultado
de un tratamiento como consecuencia de cuatro mecanismos celulares (4 R):
• Reparación del daño subletal: las células difieren en su capacidad para reparar el daño
del ADN, en particular después de pequeñas dosis de radiación, siendo más efectiva
en células no proliferativas. Por tanto, la reparación de los tejidos con respuesta tardía
será máxima. El proceso de reparación necesita, al menos, 6 horas para ser completado,
y de ahí que las sucesivas fracciones deban ser administradas en un intervalo temporal
que no afecte a la reparación. Por este motivo, el hiperfraccionamiento puede ser
ventajoso.
• Repoblación del tejido irradiado: las células supervivientes de algunos tumores y de
tejidos con respuesta aguda proliferan más rápido una vez que el tratamiento ha
empezado (tras un periodo variable, estimado entre 14 y 21 días, desde el comienzo de
la irradiación) para contrarrestar los efectos de la radiación. Por tanto, acortar los
tiempos totales de tratamiento (terapia acelerada) será ventajoso para algunos tumores,
pero aumentará la toxicidad aguda. En consecuencia, para los tumores que presentan
una proliferación acelerada es especialmente importante evitar los gaps (paradas)
durante el tratamiento.
• Redistribución de las células en el ciclo proliferativo: como se ha indicado en apartado 4,
«Efectos celulares de la radiación», las células son más radiorresistentes en
determinadas fases del ciclo celular (S, G0, y G1). Las células que sobreviven a la
primera dosis de radiación tenderán a estar en una fase resistente, y al cabo de unas
pocas horas pasarán más o menos sincrónicamente a una fase más radiosensible. Por
consiguiente, fracciones de tratamiento muy próximas en el tiempo pueden conducir a
la resistencia debido a la persistencia de las células en las fases menos sensibles.
• Reoxigenación de células hipóxicas: las células hipóxicas, que se encuentran rodeando al
tumor, son altamente resistentes a la radiación. Tras la irradiación pueden llegar a
oxigenarse por la desaparición de las células tumorales, lo que aumenta su
radiosensibilidad ante la siguiente fracción de tratamiento. Así, si el tiempo de
tratamiento es muy corto puede conducir a la resistencia del tumor debido a la
presencia de las células hipóxicas que lo envuelven.
Como ya se ha comentado, la pauta de tratamiento habitual consiste en múltiples
fracciones de 2 Gy administradas 5 días a la semana durante varias semanas. Con este
esquema se están protegiendo los tejidos con respuesta tardía mediante el uso de dosis
por fracción pequeñas. Puesto que las respuestas tardías no se ven influenciadas por el
tiempo total de tratamiento, sería deseable que este fuera lo más corto posible para
minimizar las oportunidades de repoblación del tumor. Sin embargo, esta reducción del
tiempo debe ser ponderada con la necesidad de permitir la reoxigenación de las células
hipóxicas durante la terapia, y también con la posible aparición de efectos agudos,
debido a que una reducción del tiempo también reduce las oportunidades de repoblación
de estos tejidos.
Teniendo todo esto en cuenta, pueden plantearse distintos esquemas de tratamiento
con el objetivo de conseguir un mayor control del tumor:
• Hiperfraccionamiento: se emplea para tumores cuya respuesta se asemeja a la de los
tejidos con respuesta aguda (alto valor de α/β). Consiste en administrar varias
fracciones diarias de 1,15-1,20 Gy, 5 días a la semana, de manera que aumenta el
número de fracciones para dar una dosis total mayor que con un fraccionamiento
convencional, pudiendo alcanzar los 80 Gy. Al hipofraccionar, aumentando la dosis
total en algunas localizaciones tumorales (como en la mama o la cabeza y el cuello) se
consigue un mayor efecto antitumoral, sin agravar la toxicidad tardía. Un aumento en
el número de fracciones disminuye la posibilidad de reparación del daño subletal
en las células tumorales, y permite la redistribución de las células en el ciclo celular
entre fracciones.
• Hipofraccionamiento: se emplea para ayudar a sobreponerse a la radiorresistencia de los
tumores en localizaciones donde los tejidos sanos no son un factor que limite la dosis a
administrar. Con este esquema se reduce el tiempo total de tratamiento y, por tanto, se
elimina la proliferación. Consiste en administrar fracciones de más de 2 Gy (5-20 Gy),
de manera que el número total de fracciones se reduce. Se consigue la misma o mayor
muerte celular, y los mismos o mayores efectos sobre los tejidos de respuesta aguda.
Para los tejidos de respuesta tardía, los efectos aumentan si la dosis total no cambia
respecto de la pauta estándar, y serían los mismos si la dosis total disminuye. Este
esquema se emplea habitualmente en tratamientos con intención paliativa, en los que,
debido a la esperanza de vida limitada de los pacientes, la aparición de efectos tardíos
está en un segundo plano; y como tratamiento de intención radical en aquellos en que
el volumen de tratamiento es pequeño y las dosis pueden administrarse con alta
precisión, como en los tratamientos de radioterapia estereotáxica de pulmón o hígado.
• Fraccionamiento acelerado: se emplea para contrarrestar la alta tasa de repoblación de los
tumores durante el tratamiento. Consiste en reducir el tiempo total de tratamiento,
administrando fracciones de 2 Gy separadas por un intervalo de 6 horas; es decir, se
aumenta la dosis promedio semanal de 10 Gy impartida en un fraccionamiento
convencional. Con este esquema se consigue un mayor control local del tumor, pero
aumenta la toxicidad aguda. Puesto que los tejidos con respuesta tardía se ven poco
afectados por el tiempo total de tratamiento, y si se produce la reparación total del
daño subletal radioinducido entre fracciones, los efectos tardíos deberían ser los
mismos que para un esquema convencional.
• Hiperfraccionamiento acelerado (CHART, continuous hyperfractionated accelerated
radiotherapy; boost concomitante): combina las ventajas del hiperfraccionamiento y de la
aceleración. Los beneficios de este esquema radican en que se reduce la dosis total
administrada o se acorta el tiempo total de tratamiento. Con este esquema se obtiene
un mayor control tumoral, pero también mayores efectos agudos. Sin embargo, los
efectos tardíos son iguales o incluso menores.
En resumen, el fraccionamiento, en general, contribuye a la protección de los tejidos
sanos debido a la reparación del daño subletal y a los fenómenos de repoblación celular,
mientras que incrementa el efecto sobre las células tumorales porque permite la
reoxigenación tisular y la redistribución de las células dentro del ciclo celular.
9. El efecto de la tasa de dosis
Se denomina efecto de la tasa de dosis a la variación de la eficacia biológica de la radiación
según la forma en que esta se aplique en el tiempo. Es un fenómeno que está relacionado
con la manera en que las células luchan contra los efectos de la radiación; es decir,
cuando la tasa de dosis disminuye, el tiempo necesario para administrar una
determinada dosis aumenta, de modo que es posible que tengan lugar ciertos procesos
biológicos (las cuatro R de la radiobiología citadas en el apartado anterior) durante la
irradiación que pueden modificar la respuesta.
Se han descrito tres efectos de tasa de dosis:
• Efecto de tasa de dosis debido a la proliferación: a bajas tasas de dosis, la tasa de mortalidad
es comparable a la tasa de proliferación celular. A medida que aumenta la tasa de
dosis, la tasa de proliferación se va haciendo despreciable frente a la de mortalidad, de
manera que a mayor tasa de dosis mayor eficacia anticelular. Este efecto lo presentan
todas las radiaciones ionizantes, tanto las de baja como las de alta LET.
• Efecto de tasa de dosis debido a la reparación: existe un fenómeno de tasa de dosis que no
se explica por la competencia proliferativa, sino por la actividad reparativa de la célula
y que sólo aparece para radiaciones de baja LET. Las radiaciones de baja LET producen
ionizaciones tan separadas que es poco probable que provoquen una rotura doble del
ADN, como ocurre en las radiaciones de alta LET. Sin embargo, si la tasa de dosis es lo
bastante alta se producirán lesiones a un ritmo mayor que el de reparación, y entonces
será inevitable que una cadena intacta, tras alguna lesión subletal de la cadena
complementaria, se rompa a su vez y produzca una lesión letal. A muy alta tasa, la
supervivencia deja de depender de la tasa de dosis, porque la reparación no puede
competir con la producción de lesiones. La forma de la curva de supervivencia muestra
un hombro inicial que revela que el daño letal se produce por acumulación de daño
subletal, a diferencia de las curvas de supervivencia «rectas», que revelan la muerte por
daño exclusivamente letal. Por tanto, las curvas se hacen rectas tanto con alta LET como
con radiación de baja LET a baja tasa de dosis, pues se repara eficazmente todo daño
subletal.
• Efecto inverso de la tasa de dosis: cuando la tasa de dosis es baja, el número de lesiones no
es alarmante y la célula que está dentro del ciclo reproductivo puede posponer su
reparación a la fase tardía G2 (v. fig. 11-2). Pero si la tasa de dosis aumenta no puede
posponerse la reparación, de manera que para poner en marcha el programa
enzimático de la reparación hay que suspender el proceso del ciclo reproductivo para
evitar interferencias. La fase G2 tardía y la fase de mitosis son etapas de máxima
radiosensibilidad celular; mientras que si las células paran su ciclo para la reparación,
estarán, en general, en una fase de menor sensibilidad. Por tanto, el momento en el
que se produce la salida de la célula del ciclo reproductivo para proceder a la
reparación de las lesiones (cuyo número no es despreciable debido al aumento de la
tasa de dosis), tiene lugar un aumento brusco de la eficacia celular contra la radiación,
que se traduce en un aumento de la supervivencia al aumentar la tasa. Esto es lo que se
conoce como efecto inverso de la tasa de dosis.
Las tasas de dosis empleadas en teleterapia exceden la zona de efecto de tasa de dosis.
Sin embargo, la braquiterapia de baja tasa (LDR <2 Gy/h) trabaja en el rango de efecto de
tasa de dosis debido a la reparación, mientras que en la braquiterapia de alta tasa (HDR
>12 Gy/h) sólo tiene lugar una reparación parcial debido a tiempos de tratamientos más
cortos.
10. Relaciones dosis-respuesta
En la práctica clínica no hay ninguna dosis para la cual la tasa de complicación sea nula, o
una dosis tumoricida que consiga el control local del tumor, sino un rango de dosis en el
cual la probabilidad del efecto biológico aumenta del 0% hacia el 100% cuando aumenta
la dosis; es decir, existe una relación dosis-respuesta. En el caso de los tumores, la curva
dosis-respuesta representa la probabilidad de control tumoral frente a la dosis total
administrada, y recibe el nombre de TCP (tumor control probability), mientras que para los
tejidos sanos representa la probabilidad de daño o complicaciones y recibe el nombre de
NTCP (normal tissue complication probability). Las curvas dosis-respuesta, tanto para los
tumores como para los tejidos sanos, tienen forma sigmoidea (fig. 11-9) y se caracterizan
por:
• Un valor central (D50): dosis para la cual se consigue un control tumoral del 50%, o una
respuesta en los tejidos sanos del 50%. En el caso de complicaciones graves se emplea
la dosis para la que tiene lugar un 5% de tales complicaciones.
• Pendiente (γn): indica el aumento en un n% del efecto cuando la dosis aumenta un 1%.
FIGURA 11-9 Relación dosis-respuesta para tumores y tejidos sanos. A) Interpretación geométrica
de γ. Un incremento de dosis ∆D (2 Gy) respecto de una dosis de referencia D (39 Gy) (un
incremento de un 5% en la dosis) da lugar a una mejora de la probabilidad de control tumoral de γ
expresado en porcentaje. B) Se indican los valores de D50 o D5. Además, se observa cómo al estar
las curvas TCP y NTCP más próximas que en la situación A se produce una disminución de la
ventana terapéutica.

Para los tumores, los distintos valores de estos parámetros están relacionados con la
variabilidad en la respuesta individual y las condiciones tumorales iniciales. Para los
tejidos sanos es importante conocer, al menos aproximadamente, cómo los cambios en el
volumen irradiado en una localización concreta afectarán a la dosis de tolerancia que
puede administrarse con seguridad.
Desde un punto de vista estadístico, el control tumoral será la consecuencia clínica
derivada de la muerte clonogénica de todas las células tumorales. Por tanto, si para un
cierto esquema terapéutico el número medio de células supervivientes es N–(D), de un
total de N0, y la supervivencia celular sigue el modelo de Poisson, la probabilidad de que
no existan clonógenos supervivientes al final del tratamiento será:

[13]

donde s(D) es la fracción de células supervivientes tras administrar una dosis D,


descrita de acuerdo con el modelo LQ (ecuación 4).
Aunque la complicación en tejidos sanos será la consecuencia clínica de un
determinado nivel de mortandad celular en el órgano irradiado, no es tan obvia como en
los tumores una interpretación mecanicista del modelo de Poisson. La relación dosis-
respuesta de los tejidos sanos puede describirse mediante un modelo empírico
denominado logístico, según el cual la probabilidad de complicación del tejido sano
puede expresarse como:

[14]

donde γ es el valor máximo del gradiente de dosis-respuesta, es decir,

max.

10.1. Ventana terapéutica


El objetivo de la radioterapia es administrar la dosis suficiente al tumor para destruirlo
con un grado aceptable de daño sobre los tejidos sanos. El equilibrio entre el control
tumoral y el desarrollo de complicaciones da lugar al concepto de ventana terapéutica (v.
fig. 11-8A).
La diferencia entre la dosis de control tumoral y la dosis de tolerancia del tejido sano
puede calcularse como TCP • (1 − NTCTP), de manera que se obtiene el índice UTCP
(uncomplicated tumor control probability), que es la probabilidad de control tumoral sin
complicaciones.
En la figura 11-9 se aprecia que cuanto más cerca está la curva de control tumoral
respecto de la curva de probabilidad de complicaciones del tejido sano, más difícil será
elegir la dosis adecuada para controlar el tumor sin causar daño.
11. Resumen
La acción biológica de la radiación se estructura en tres etapas que transcurren
secuencialmente tras la interacción de la radiación con la materia, pero cuya duración
tiene distinta escala temporal: etapas física (fs), química (s) y biológica (horas o días).
El ADN es la estructura más sensible de la célula a la radiación ionizante y la causante
de los efectos radiobiológicos. Además, la radiosensibilidad celular varía en función de la
etapa del ciclo celular en que se produzca la irradiación, siendo el final de G2 y la mitosis
las fases más radiosensibles.
Existen diversos modelos que cuantifican la supervivencia celular con la dosis
absorbida. El que mejor se adapta a las curvas de supervivencia experimentales es el
modelo lineal cuadrático, que se caracteriza por los parámetros α (componente irreparable
del daño celular → pendiente inicial de la curva de supervivencia) y β (componente
reparable → curvatura de la curva de supervivencia). Su cociente α/β es la dosis (en Gy)
para la cual la contribución de ambas componentes se iguala.
Los tejidos de respuesta aguda y los tumores se caracterizan por tener valores de α/β
grandes, mientras que los tejidos de respuesta tardía presentan valores de α/β pequeños.
El fraccionamiento, la distribución de dosis en el tiempo, influye en el resultado de un
tratamiento como consecuencia de cuatro mecanismos celulares: reparación, repoblación,
redistribución y reoxigenación. La pauta de tratamiento estándar consiste en administrar
una fracción diaria de 1,8 o 2 Gy.
Para comparar dos esquemas de tratamiento se emplea la dosis biológica equivalente
(DBE).
El efecto de la tasa de dosis es la variación de la eficacia biológica de la radiación según la
forma en que esta se imparta en el tiempo.
La curva de dosis-respuesta para tumores se denomina TCP (tumor control probability) y
representa la probabilidad de control tumoral frente a la dosis total administrada,
mientras que para los tejidos sanos recibe el nombre de NTCP (normal tissue complication
probability) y representa la probabilidad de daño o complicaciones. La forma de ambas
curvas es sigmoidea. El rango de dosis en el que se obtiene un equilibrio entre el control
tumoral y el desarrollo de complicaciones se denomina ventana terapéutica.
Bibliografía
Barret A, Dobbs J, Morris S, Roques T. Radiobiology and treatment planning. In: Barret A, Dobbs J, Morris S, Roques T,
eds. Practical radiotherapy planning. 4th ed. Londres: Hodder Arnold an Hachette UK Co; 2009:32–43.
Ciudad Platero J, Guirado Llorente D, Sánchez-Reyes Fernández A, Sanjuanbenito Ruiz de Alda W, Velásquez Miranda S.
Radiobiología clínica. 1ª ed. Madrid: Impresur Artes Gráficas; 2003.
Steel GG, Bartelink H, Baumann M, Begg AC, Bentzen SM, Horsman MR, et al. Basic clinical radiobiology. 3rd ed.
Londres: Arnold; 2002.

1
Un radical libre contiene un electrón desapareado en su órbita externa.
2
Las bases son los «escalones» que constituyen la estructura helicoidal del ADN, en forma de escalera de caracol. Son
cuatro bases nitrogenadas: adenina, guanina, citosina y timina.
3
Distribución de probabilidad, f, que expresa, a partir de una frecuencia de ocurrencia media, la probabilidad de que
ocurra un número determinado de eventos durante cierto periodo de tiempo. f (k, λ) = e−λ · λk / λ!, donde k es el número
de ocurrencias del evento y λ es un parámetro positivo que representa el número de veces que se espera que ocurra el
fenómeno durante el intervalo.
PA R T E 4
Aspectos físicos de la simulación en
radioterapia
Capítulo 12: Concepto de simulación en radioterapia
Capítulo 13: Posicionamiento, referenciación y dispositivos de inmovilización
Capítulo 14: Equipos y modalidades de imagen utilizados en simulación
Capítulo 15: Registro y fusión de imágenes multimodalidad
Capítulo 16: Procedimientos tecnológicos. El control de calidad en la simulación
C AP Í T U L O 1 2
Concepto de simulación en radioterapia
Pablo Castro Tejero

Patricia Sánchez Rubio

Julia Garayoa Roca

ÍNDICE
1. Introducción 178
2. Definición. Objetivos 178
3. Evolución histórica. Tipos de simulación 179
3.1. Simulación en la sala de tratamiento 180
3.2. Simulador convencional 181
3.3. Simulador TC 182
4. Simulación convencional. Procedimientos 183
4.1. Determinación de la posición de tratamiento 184
4.2. Localización del volumen de tratamiento y órganos de
riesgo 184
4.3. Diseño del tratamiento 184
4.4. Definición del sistema de coordenadas del
paciente 184
4.5. Formación de imágenes para la verificación del
tratamiento 184
4.6. Adquisición de datos del paciente 185
4.7. Transferencia de datos al sistema de planificación 185
5. Simulación TC 185
5.1. Determinación de la posición de tratamiento 185
5.2. Definición del sistema de coordenadas del
paciente 185
5.3. Adquisición de datos del paciente 186
5.4. Transferencia de datos al sistema de planificación 186
5.5. Localización del volumen de tratamiento y órganos de
riesgo 186
5.6. Diseño del tratamiento y cálculo de dosis 186
5.7. Formación de imágenes para la verificación del
tratamiento 186
6. Simulación convencional frente a simulación TC 186
6.1. Ventajas y desventajas de la simulación
convencional 186
6.2. Ventajas y desventajas de la simulación TC 187
7. Resumen 187
Bibliografía 187
1. Introducción
La simulación tiene un papel muy amplio dentro del proceso radioterápico e influye
sobre la práctica totalidad de las etapas. El desarrollo de la tecnología en el campo de la
imagen ha marcado de alguna manera el devenir de la simulación, dando lugar a diversos
tipos. Los más extendidos, como ya se mencionó en el capítulo 5, son dos: la simulación
convencional, que se basa en un examen clínico simple a partir de la adquisición de
imágenes planas de rayos X, y la simulación TC, que implica el uso de un equipamiento
más complejo y se basa en imágenes tridimensionales generadas por un equipo de
tomografía computarizada (TC). Ambos tipos de simulación determinan diferentes
esquemas de trabajo del proceso radioterápico.
2. Definición. Objetivos
La simulación en radioterapia puede entenderse como el establecimiento o la
preparación de las condiciones en que debe de realizarse el tratamiento. La simulación es
un subproceso dentro del proceso global radioterápico, que resulta ser de los más
importantes de la actividad radioterápica y de los más complejos. De hecho, no suelen
estar muy bien acotados los trabajos que comprende. Unos lo conciben como la simple
tarea de adquisición de imágenes; otros extienden los trabajos de simulación desde la
adquisición de imágenes hasta la finalización de la planificación, entendiendo esta como
una simulación de lo que sucede en la interacción de la radiación con el paciente. Esta
dificultad se debe, en gran parte, a que la simulación ha ido evolucionando con el tiempo
y ha dado lugar a diferentes esquemas de trabajo del proceso radioterápico. Los objetivos
de la simulación son, por tanto, complicados de definir, ya que dependerán del tipo de
simulación empleado. En general, aquí se considerarán como objetivos de la simulación:
• Determinar la posición y la inmovilización idóneas para el tratamiento (la posición del
paciente en la mesa del simulador y del tratamiento han de ser idénticas). Para ello, de
forma previa, hay que fabricar los sistemas de inmovilización y de referencia que
garanticen la reproducibilidad de las condiciones geométricas a lo largo del
tratamiento, establecidas inicialmente por las imágenes obtenidas en la simulación.
• Adquirir imágenes que sirvan para definir el volumen de tratamiento y los órganos
sanos adyacentes que hay que evitar irradiar en el tratamiento. La determinación de
estos volúmenes puede llevarse a cabo con mayor precisión utilizando estudios
complementarios de imagen, como la resonancia magnética, la tomografía por emisión
de positrones o la angiografía.
• Registrar el conjunto de imágenes empleado por el sistema de planificación
dosimétrico para realizar los cálculos de dosis.
• Diseñar el tratamiento. En el caso de la simulación TC, esta fase está integrada en la
denominada «planificación de tratamientos», que es el tema de los capítulos 17 a 20, en
los que se desarrolla con profundidad.
• Generar imágenes de referencia para la verificación en la unidad de tratamiento de la
geometría de irradiación.
• Documentar todos los datos de la geometría de simulación necesaria para las fases
posteriores.
El proceso de simulación es dependiente, entre otros, de los recursos disponibles de
cada centro. Así, el flujo de trabajo de un centro que disponga de simulador
convencional será diferente del que disponga de simulador TC. Hoy por hoy, las mayores
capacidades que presenta la simulación TC hacen que el simulador convencional esté
pasando a un segundo plano. Así, el simulador convencional se emplea en centros que
no disponen de acceso a un TC o bien para el diseño de tratamientos sencillos 2D que no
requieren un cálculo de dosis preciso. También existen centros donde el simulador
convencional se emplea con el objetivo original de verificar el tratamiento, aunque es
cada vez menos frecuente, ya que la mayoría de las máquinas de tratamiento actuales
incluyen dispositivos integrados de verificación de la posición del paciente (v. cap. 7) que
permiten comprobar la geometría de irradiación de manera rápida y sencilla.
3. Evolución histórica. Tipos de simulación
Los equipos de simulación han estado ligados al desarrollo de la tecnología del
diagnóstico por la imagen mediante rayos X (tabla 12-1), y su influencia ha sido tal que
han marcado la evolución de las técnicas de planificación de tratamientos en
radioterapia.

Tabla 12-1
Evolución histórica de los equipos de simulación

Los inicios de la simulación se sitúan hacia 1950 y se desarrolla para comprobar los
haces de tratamiento y asegurar que estos son correctamente elegidos y dirigidos al
volumen blanco.
La primera forma de llevar a cabo la simulación fue mediante placas radiográficas,
tomadas antes del tratamiento en la propia unidad de irradiación, con el paciente situado
sobre la mesa en la posición de tratamiento y utilizando el propio haz de tratamiento.
Una vez procesada y revelada la placa, se visualiza la proyección del haz sobre el
paciente. En caso de que el posicionamiento no sea correcto, se ajusta repitiendo el
procedimiento hasta que proyección geométrica del haz sobre el paciente sea la correcta.
El proceso se repite para cada uno de los haces que configuran el tratamiento.

3.1. Simulación en la sala de tratamiento


El objetivo es la verificación del tratamiento mediante placas radiográficas de
megavoltaje.
La simulación llevada a cabo de esta forma presenta una serie de inconvenientes:
• Conlleva un uso poco eficiente de la unidad de tratamiento, ya que supone un gran
tiempo de ocupación de la sala de tratamiento, al que se puede añadir el ocupado para
resolver los problemas imprevistos que pueden surgir durante la simulación, lo que va
en detrimento de la eficiencia del uso principal para el que está prevista la unidad de
tratamiento: la administración del mismo.
• Las imágenes obtenidas no tienen buena calidad (fig. 12-1) por dos motivos: por un
lado, la alta energía de los haces provoca una cantidad importante de radiación
dispersa que provoca emborronamiento o ruido en la imagen; por otro, el mayor
tamaño de la fuente de radiación comparado con el de un equipo de rayos X de uso
diagnóstico, contribuye a difuminar los bordes de las estructuras, con lo que se
obtienen imágenes poco contrastadas.

FIGURA 12-1 Placas radiográficas obtenidas en la unidad de tratamiento con haz de megavoltaje.
A) Cráneo. B) Pelvis.

A raíz de estas limitaciones surge la necesidad de una máquina de uso exclusivo para la
simulación. El nombre que recibe este equipo es el de simulador convencional o
simulador radiográfico. Un simulador convencional es una máquina equivalente a la
unidad de tratamiento en lo que a propiedades geométricas y mecánicas se refiere: imita
o «simula» todos sus movimientos (v. cap. 5). La diferencia estriba en que la fuente de
alta energía es sustituida por un tubo de rayos X diagnóstico que se emplea para la
adquisición de imágenes del paciente. Esto supone una mejora sustancial en la calidad de
las imágenes (fig. 12-2) respecto a la proporcionada por un haz de alta energía.
FIGURA 12-2 Placas radiográficas obtenidas en un simulador convencional con haz de kilovoltaje.
A) Cráneo. B) Pelvis.

Los primeros simuladores presentaban como único dispositivo detector de imagen la


placa radiográfica que proporcionaba una proyección del paciente en un instante
determinado. En la década de 1960 se introduce la fluoroscopia, que permite adquirir y
visualizar imágenes del paciente en tiempo real. Simultáneamente, se implementa la
utilidad de control remoto de la mesa donde se posiciona al paciente, lo que posibilita su
desplazamiento desde la consola del operador sin necesidad de estar dentro de la sala.
Estas mejoras permiten establecer de manera sencilla la geometría de tratamiento: a
partir de la imagen de fluoroscopia se visualiza la intersección geométrica del haz con la
anatomía del paciente y, en caso necesario, se corrige su orientación en tiempo real
mediante el control remoto de la mesa. Una vez establecida la geometría de irradiación,
se adquieren placas radiográficas para determinar la protección de los tejidos sanos y
como referencia anatómica para el tratamiento. El proceso vuelve a repetirse para cada
haz.
Todo ello supone un cambio en los objetivos del proceso de simulación: pasa a
convertirse en una etapa en la cual se definen todos los aspectos geométricos del
tratamiento, desde el posicionamiento del paciente hasta la orientación de los haces, su
tamaño y su conformación.

3.2. Simulador convencional


A partir de procedimientos de fluoroscopia y placas radiográficas de rayos X de
kilovoltaje se llevan a cabo la localización de la lesión y el diseño del tratamiento.
El reconocimiento de la lesión no es una tarea sencilla, ya que, en la mayor parte de los
casos, sólo es posible distinguir estructuras anatómicas con alto contraste, como los
huesos o las vías aéreas apareciendo estas, además, superpuestas. El médico tiene que
basarse en una combinación de pruebas clínicas y en sus conocimientos de anatomía
para reconocer el lugar donde es probable que se encuentre el tumor.
La importante incertidumbre de este procedimiento obligaba a que el diseño de los
tratamientos fuese lo más sencillo posible: en la mayoría de los casos se buscaban
configuraciones de haces con orientación anteroposterior, posteroanterior o lateral, que
coincidieran con las orientaciones de las proyecciones radiográficas en las cuales las
referencias anatómicas se reconocen con mayor facilidad.
El hecho de que el paciente se encuentre en la posición de tratamiento es aprovechado
para obtener los datos anatómico-geométricos requeridos para el cálculo dosimétrico.
Estos datos son adquiridos por medio de un pantógrafo o cualquier otro dispositivo
adicional1 que permite delinear el contorno externo del paciente en un plano de interés
(generalmente el que pasa por el isocentro). Así, la naturaleza de los datos adquiridos,
proyecciones radiográficas 2D y generalmente un único contorno del paciente, da lugar a
un tipo de diseño y cálculo de tratamientos en 2D.
El procedimiento de simulación (localización de la lesión, diseño de los haces y
adquisición de placas de verificación y de datos anatómicos) requiere que el paciente
deba guardar la misma posición. Esto supone un importante problema, dado que los
tiempos consumidos en este procedimiento son largos y el paciente puede no llegar a
aguantarlos y se mueva. Estos movimientos son una fuente adicional de inexactitudes e
incertidumbres en la definición de los datos requeridos.
En 1972 aparecen los primeros trabajos sobre TC cuya idea esencial recae en la
posibilidad de reconstruir un objeto 3D a partir de varias proyecciones 2D. La principal
aplicación de la TC es en el campo del radiodiagnóstico, aunque rápidamente se extiende
su uso al de la radioterapia. Sin embargo, en aquellos primeros tiempos aparecieron
diversos obstáculos. En primer lugar, la disponibilidad de un escáner TC para uso en
radioterapia es muy limitada, bien porque el centro en cuestión ni siquiera podía contar
con el equipo o bien porque es requerido para uso exclusivo en diagnóstico, dado que los
tiempos necesarios para la realización de los estudios eran muy grandes y había que
utilizarlos intensivamente para su cometido principal definido en aquellos tiempos. En
segundo lugar, los TC de diagnóstico presentan dos limitaciones de diseño importantes
que dificultaban su uso en radioterapia: 1) tener un diámetro de apertura del gantry
demasiado pequeño que impedía introducir al paciente, junto con su correspondiente
dispositivo inmovilizador, en el agujero del donut del escáner y 2) tener una mesa
curvada, muy diferente de la mesa plana de tratamiento, que introduce una deformación
de las estructuras anatómicas del paciente y hace difícil lograr reproducir la posición del
paciente en el momento del tratamiento.
Ante esta situación, se abrieron dos líneas de desarrollo basadas en el simulador
convencional, que se describen a continuación.

Simulador convencional con tecnología TC


En 1998 se introduce la tecnología digital en los simuladores, lo que permite explotar las
posibilidades de procesado, transferencia y uso flexible de datos.
Se dota al simulador convencional de la capacidad de reconstrucción de un corte
transversal del paciente a partir de una serie de proyecciones tomadas desde diferentes
ángulos del conjunto tubo de rayos X-intensificador. El tiempo de adquisición, limitado
por la velocidad de giro del brazo es de alrededor de 1 minuto por vuelta.
Una vez reconstruidas, las imágenes son almacenadas para su posterior archivo o
transferencia vía red informática a las estaciones de trabajo. Se desarrollan
inmediatamente múltiples herramientas de visualización y manipulación de imagen. Se
hace posible el envío de imágenes al planificador mediante protocolo DICOM (Digital
Image Communications in Medicine), se habilitan herramientas de impresión, digital o en
papel, etc. Por último se crean nuevas utilidades encaminadas a facilitar el uso del
simulador, como la selección automática de protocolos anatómicos, la retención de la
última imagen2, la verificación MLC (colimación multilámina), etc.

Simulador convencional con tecnología TC de haz cónico


En 2005 se desarrolla la tecnología denominada TC de haz cónico (CBCT, cone beam CT). El
intensificador de imagen es sustituido por un detector plano de silicio amorfo (aSi), con
tamaño suficiente para cubrir longitudes anatómicas del orden de 20 cm.
Mediante la tecnología de haz cónico, en un único giro del tubo de rayos X se obtienen
datos suficientes para reconstruir múltiples cortes del paciente (fig. 12-3). La duración de
un giro de 360° es de unos 45 segundos, tiempo lo suficientemente largo para provocar
artefactos debidos al movimiento del paciente.

FIGURA 12-3 Imágenes obtenidas en un simulador convencional con capacidad de reconstrucción


tomográfica. A) Plano axial o transversal. B) Plano sagital. C) Plano coronal.

Las imágenes pueden visualizarse en cualquier plano, aunque principalmente se


presentan en cortes axiales, cuyo espesor es seleccionado por el usuario antes de la
adquisición. La calidad de la imagen, aunque inferior a la de un TC convencional, es lo
bastante buena como para realizar las planificaciones dosimétricas con una exactitud y
una precisión aceptables.

3.3. Simulador TC
Como alternativa al uso del simulador convencional con posibilidad de proporcionar
imágenes tomográficas, se opta por modificar el diseño de un escáner TC convencional
para adaptarlo a las necesidades de la simulación en radioterapia.
Para ello, en primer lugar se amplía la apertura del escáner por encima de 70 cm de
diámetro para permitir el acceso del paciente y sus dispositivos inmovilizadores. En
segundo lugar, la mesa de forma curvada utilizada en diagnóstico, es sustituida por una
con tablero plano.
Por otro lado, el avance tecnológico en hardware (aumento de la capacidad calorífica de
los tubos, aparición de la TC multicorte capaz de adquirir múltiples cortes en una sola
rotación) y software (incremento en la capacidad computacional de los ordenadores y
desarrollo de algoritmos de reconstrucción más potentes), supone una reducción en los
tiempos de adquisición hasta llegar a ser de pocos segundos, la reconstrucción y la
presentación de imágenes llega a ser prácticamente simultánea a la adquisición de datos,
la transferencia de datos al planificador casi instantánea, etc.
Con todo ello, no es hasta los primeros años de la década de 1990, cuando se produce
la fusión entre las prestaciones de los TC (imágenes 3D) y las necesidades de la
simulación en radioterapia. Esto se logra con el desarrollo de lo que se denominó
simulador TC, el cual consiste en:
• Un escáner TC adaptado, que permite la adquisición de datos 3D del paciente: paciente
virtual.
• Un programa informático que proporciona una representación virtual en 3D de las
capacidades geométricas de una máquina de tratamiento: simulador virtual.
La información anatómica proporcionada por la imagen TC permite distinguir
estructuras de tejido blando de manera mucho más efectiva que con el simulador
convencional (alta resolución de bajo contraste), lo que unido a la alta resolución
espacial, facilita la visualización y definición de la lesión y los órganos que la rodean con
una definición muy nítida de los bordes y contornos de los tejidos (fig. 12-4), algo
especialmente importante en radioterapia.

FIGURA 12-4 Imágenes obtenidas en un simulador TC. A) Plano axial o transversal. B) Plano
sagital. C) Plano coronal.

Adicional a ésta información de los contornos anatómicos, el simulador TC


proporciona información de las densidades de los tejidos, lo que permite que el cálculo
dosimétrico pueda realizarse con una exactitud muy aceptable.
El conjunto de imágenes transversales que configuran el paciente virtual, junto con la
emulación 3D de la máquina de tratamiento (simulador virtual), permiten realizar un
diseño del tratamiento en 3D.
En un primer momento, el simulador virtual se desarrolló de manera independiente al
sistema de cálculo de dosis que se realiza en los sistemas de planificación. La definición
de los volúmenes involucrados en el tratamiento la lleva a cabo el especialista médico, el
cual debe contornearlos en todos los cortes donde se visualizan. Este trabajo hoy en día
está simplificado por el desarrollo que ha habido de herramientas de contorneo
automático, así como de herramientas de representación gráfica en 3D. Aun así, sigue
siendo una de las etapas de la actividad radioterápica más importante en las que hay que
invertir todo el tiempo que sea necesario si se quiere realizar un tratamiento de calidad.
Mediante el software de simulación se realiza el diseño del tratamiento, estableciendo
tamaños de haces, angulaciones, etc., utilizando una serie de herramientas que emulan
las capacidades geométricas de la máquina de tratamiento. Una vez fijada la geometría
de los haces de radiación, es enviada al sistema de planificación para la realización del
cálculo dosimétrico.
En la actualidad, las utilidades y herramientas del simulador virtual han sido
integradas directamente en el sistema de planificación dosimétrico3. Así, una vez
obtenidas las imágenes TC, estas son enviadas al sistema de planificación para el diseño
y el cálculo dosimétrico del tratamiento. Una vez realizado el cálculo dosimétrico este es
superpuesto en las imágenes TC para su evaluación cualitativa y cuantitativa.
Debe resaltarse una de las ventajas más importantes de la simulación TC respecto a la
convencional y es la reducción del tiempo precisado para realizarla, dado que los trabajos
a realizar en este acto se reducen a la fabricación de los dispositivos de inmovilización y a
la adquisición de las imágenes TC, dejándose para otros momentos el análisis de las
imágenes, la definición de los volúmenes y el diseño del tratamiento.
4. Simulación convencional. Procedimientos
Los procedimientos básicos que comprende la simulación convencional para un paciente
típico son (tabla 12-2):
1. Determinación de la posición de tratamiento.
2. Localización del volumen de tratamiento y órganos de riesgo.
3. Diseño del tratamiento.
4. Definición del sistema de coordenadas del paciente.
5. Formación de imágenes para la verificación del tratamiento.
6. Adquisición de datos del paciente.
7. Transferencia de datos al sistema de planificación.

Tabla 12-2
Etapas básicas de la simulación convencional

4.1. Determinación de la posición de tratamiento


La inmovilización y el posicionamiento del paciente deben ser lo más apropiados para el
tratamiento de la lesión. Además, la posición debe ser lo más confortable posible para el
paciente, de manera que se asegure la reproducibilidad a lo largo del tratamiento y la
estabilidad en cada una de las sesiones de que conste el mismo.

4.2. Localización del volumen de tratamiento y órganos de


riesgo
Una vez inmovilizado y posicionado el paciente, se hace uso de la fluoroscopia para
visualizar la intersección geométrica del haz de rayos X con la anatomía del paciente y se
desplaza la mesa en tiempo real hasta conseguir identificar la lesión. La localización de la
lesión sobre las imágenes se determina mediante una combinación de pruebas clínicas y
conocimiento anatómico, principalmente basado en las estructuras óseas y las vías aéreas
o bien en hilos o alambres de plomo colocados sobre la superficie del paciente.

4.3. Diseño del tratamiento


A continuación se deciden el número de haces y la mejor incidencia, a priori, para tratar
el tumor e irradiar lo menos posible los órganos sanos adyacentes. Para ello es posible
girar el brazo, el colimador y la propia mesa buscando la incidencia óptima del haz sobre
el paciente. A través de imágenes de fluoroscopia dirigida desde la consola de control
remoto del equipo, se irá desplazando la mesa en las tres direcciones del espacio, hasta
colocar al paciente en una posición propicia. El tamaño de campo se ajustará a las
dimensiones del volumen de tratamiento para los diferentes haces.

4.4. Definición del sistema de coordenadas del paciente


Determinados los diferentes parámetros del haz (tamaño de campo, ángulo de brazo,
ángulo del colimador, etc.), el isocentro de la simulación se materializa o visualiza sobre
la superficie del paciente por medio de los láseres. Habitualmente los puntos de
intersección de los láseres con la superficie del paciente, son grabados en la piel del
paciente mediante el tatuaje con tinta de pequeños puntos. Estas marcas definen una
referencia geométrica para posicionar al paciente durante todas las sesiones en la unidad
de tratamiento. De manera adicional, la proyección de los campos y sus centros pueden
ser marcados sobre la piel del paciente o en el propio dispositivo de inmovilización4.

4.5. Formación de imágenes para la verificación del


tratamiento
Una vez establecida toda la geometría de tratamiento sobre el paciente, se lleva a cabo
una placa radiográfica para cada proyección de haz con los siguientes objetivos:
1. Como referencia anatómica-geométrica para el tratamiento. Las placas de verificación
periódicas obtenidas en la sala de tratamiento serán comparadas con estas radiografías
con el objetivo de asegurar el correcto posicionamiento del paciente a lo largo del
tratamiento.
2. Como soporte para la construcción de bloques de protección de órganos críticos: en
caso de existir algún órgano crítico en la zona de irradiación que se quiera proteger, se
dibuja la forma del campo deseada directamente sobre la propia placa, que se utilizará
posteriormente para la construcción del bloque.
3. Como documentación gráfica de los campos de tratamiento, quedando así un registro
de ellos. Esto posibilita conocer la geometría de irradiación en cualquier momento, por
ejemplo en caso de que hubiera que realizar un nuevo tratamiento con posterioridad.
4.6. Adquisición de datos del paciente
Aprovechando el hecho de que el paciente se encuentra en posición de tratamiento, se
obtendrán una serie de datos anatómicos requeridos para el cálculo dosimétrico. Estos
son contornos externos y marcado de puntos externos que se relacionen con puntos o
estructuras internas. Los puntos de entrada de los haces así como el isocentro (definido
por el sistema de coordenadas) han de quedar marcados también para poder relacionar
la posición geométrica del haz con el paciente y localizar los haces durante el cálculo. Si
el espesor del paciente varía significativamente dentro de un mismo campo de
tratamiento (p. ej., en un tratamiento de cabeza y cuello), debería determinarse el
contorno en más de un plano. Es posible también que durante el transcurso del
tratamiento el contorno pueda cambiar debido a una reducción del tumor o a una
pérdida de peso del paciente, por lo que es recomendable realizar comprobaciones
periódicas del contorno, que deberán venir acompañadas por el cálculo dosimétrico
consiguiente.

4.7. Transferencia de datos al sistema de planificación


Los datos adquiridos del paciente y el diseño realizado del tratamiento son transferidos
al sistema de planificación para el cálculo de la distribución de dosis.
5. Simulación TC
Los procedimientos básicos que comprende la simulación TC para un paciente típico son
(tabla 12-3):
1. Determinación de la posición de tratamiento.
2. Definición del sistema de coordenadas del paciente.
3. Adquisición de datos del paciente.
4. Transferencia de datos al sistema de planificación.
5. Localización del volumen de tratamiento y órganos de riesgo.
6. Diseño del tratamiento y cálculo de dosis.
7. Formación de imágenes para la verificación del tratamiento.

Tabla 12-3
Etapas básicas de la simulación TC

5.1. Determinación de la posición de tratamiento


La inmovilización y el posicionamiento del paciente deben ser lo más convenientes a la
estabilidad, el confort y la adecuación a los haces del tratamiento para el tratamiento de
la lesión, de manera que se asegure la reproducibilidad a lo largo del tratamiento y la
estabilidad en cada una de las sesiones.

5.2. Definición del sistema de coordenadas del paciente


Antes de iniciar la adquisición tomográfica propiamente dicha, es necesario marcar un
origen para el sistema de coordenadas de la TC que definirá una referencia geométrica
para posicionar al paciente durante todas las sesiones en la unidad de tratamiento. El
origen suele escogerse en referencias anatómicas predeterminadas haciendo coincidir las
proyecciones de los láseres sobre ellas. Estos puntos pueden visualizarse en las imágenes
TC gracias a la colocación de marcadores radioopacos. Además, estos puntos quedarán
tatuados en la piel del paciente o en el propio dispositivo de inmovilización (máscaras)
para referencia posterior en la unidad de tratamiento.

5.3. Adquisición de datos del paciente


Una vez seleccionado el origen de referencia de la TC, se procede a realizar la adquisición
tomográfica que da como resultado una serie de imágenes que representan planos
transversales del interior del paciente. Cada píxel o vóxel contiene la información, a
través del Número Hounsfield, sobre la densidad electrónica de una localización espacial
concreta. El contorno del paciente es fácilmente identificable en las imágenes.

5.4. Transferencia de datos al sistema de planificación


Antes del envío al sistema de planificación debe comprobarse que las imágenes están
exentas de artefactos o posibles errores en los datos: contorno del paciente incompleto,
sección donde están los marcadores radioopacos (perdigones) no visualizada, etc. Una
vez verificado todo esto, las imágenes TC son transferidas al sistema de planificación, en
el que se realizarán las tareas que se describen en los siguientes apartados.

5.5. Localización del volumen de tratamiento y órganos de


riesgo
La información anatómica proporcionada por la imagen TC permite distinguir de manera
efectiva estructuras y tejido blando. La mayoría de las veces es posible visualizar en las
imágenes la lesión y los órganos que la rodean de forma directa. En este caso, los bordes
o contornos de estas estructuras deben ser definidos por dibujo por el especialista
médico en cada uno de los cortes TC correspondientes.

5.6. Diseño del tratamiento y cálculo de dosis5


En general, el simulador virtual se encuentra integrado en el sistema de planificación de
tratamientos, de manera que la geometría de la máquina de tratamiento es imitada de
manera virtual, a la vez que es capaz de manejar simultáneamente la información TC del
paciente. Así, mediante herramientas proporcionadas por el sistema de planificación, es
posible llevar a cabo el diseño del tratamiento, es decir, se definen el isocentro de
tratamiento, la orientación de los haces, su conformación, etc.
Por otro lado, la emisión de radiación también es modelada por el sistema de
planificación. Incluye complejos algoritmos de cálculo físico-matemáticos que permiten
determinar la dosis sobre el paciente basándose en la interacción de la radiación emitida
por la unidad de tratamiento con la materia, formada por el propio paciente, donde sus
características absorbentes son tenidas en cuenta según las densidades, representadas en
las imágenes del paciente por los diferentes niveles de grises. Basándonos en el resultado
del cálculo es posible realizar un diseño optimizado de los tratamientos en un breve
espacio de tiempo.

5.7. Formación de imágenes para la verificación del


tratamiento
Se generan imágenes de referencia de la posición de tratamiento con el objetivo de
asegurar el correcto posicionamiento del paciente a lo largo del tratamiento. El
procedimiento más habitual es crear una radiografía reconstruidas digital6 de los campos
de tratamiento, que se comparará con las placas de verificación periódicas obtenidas en
la sala de tratamiento.
6. Simulación convencional frente a simulación TC
6.1. Ventajas y desventajas de la simulación
convencional
Las ventajas que presenta la simulación convencional pueden resumirse en:
• Mediante la fluoroscopia se obtienen imágenes en tiempo real del movimiento interno
de los órganos, lo cual puede ser beneficioso cuando los desplazamientos son
importantes (movimiento respiratorio).
• Proporciona gran resolución espacial.
• Posibilidad de visualizar los campos sobre la piel del paciente.
Las desventajas del sistema son:
• Debido al bajo contraste de las imágenes y a la superposición de estructuras puede
resultar difícil visualizar el tumor y los órganos adyacentes.
• La información proporcionada, básicamente en dos dimensiones, limita el diseño a
tratamientos pocos complejos.
• Resulta difícil (a veces imposible) simular campos en los que se requiera un giro de la
mesa del simulador.
• Los largos tiempos empleados en la simulación dificultan en ciertos casos que el
paciente permanezca inmóvil durante todo el proceso.
• Requiere un dispositivo adicional para adquirir el contorno externo del paciente7.

6.2. Ventajas y desventajas de la simulación TC


Las ventajas de la simulación TC pueden resumirse en:
• El contraste presente en las imágenes facilita una localización del tumor y de los
órganos involucrados mucho más precisa.
• La información 3D proporcionada permite diseños de tratamientos más complejos.
• El tiempo que ha de permanecer el paciente en la misma posición durante la
simulación se limita a la fabricación de los dispositivos de inmovilización y adquisición
de los datos TC.
• Pueden simularse campos en los que se requiera un giro de la mesa.
Las desventajas del sistema son:
• La adquisición de imágenes es prácticamente instantánea, por lo que no permite
visualizar el movimiento de los órganos8, aunque en los equipos más modernos hay
herramientas de cine que permiten estudiarlo.
• Se requiere gran capacidad de almacenamiento de datos.
• Las dosis absorbidas en la adquisición TC son más altas que en el simulador
convencional.
7. Resumen
La evolución histórica de la simulación ha conllevado la existencia de diversos tipos de
técnicas de simulación asociadas a la diferente tecnología existente. El tipo de simulación
empleado condiciona el flujo de trabajo del proceso radioterápico. Así, los objetivos de la
simulación son difíciles de definir, ya que son dependientes del tipo de simulación
escogido. Aquí se han considerado:
1. Determinación de la posición e inmovilización buscando la estabilidad y la
reproducibilidad a lo largo del tratamiento.
2. Adquisición de imágenes que servirán para definir el volumen de tratamiento y los
órganos sanos próximos.
3. Obtención del conjunto de imágenes para realizar el cálculo de dosis.
4. Diseño del tratamiento en el cual se define toda la geometría de irradiación de los
haces: número, incidencia, isocentro, etc.
5. Generación de imágenes de referencia para verificar en la unidad de tratamiento la
geometría de irradiación.
6. Documentación de todos los datos de la geometría de simulación necesaria para las
fases posteriores.
Los tipos de simulación más extendidos son dos: simulación convencional, que se basa
en un examen clínico y radiológico simple a partir de la adquisición de imágenes planas
de rayos X, y simulación TC, que implica el uso de equipamiento más complejo y se basa
en imágenes tridimensionales generadas por un equipo de TC. En la actualidad, la
simulación TC presenta mayores capacidades que la simulación convencional y ha
desplazado o está desplazando a esta última.
Bibliografía
Baker GR. Localization: conventional and CT simulation. Br J Radiol. 2006;79:S36–S49.
Khan FM. The physics of radiation therapy. 4th ed. Baltimore: Lippincott Williams & Wilkins; 2010.
Podgorsak EB, ed. Radiation oncology physics: a handbook for teachers and students. Viena: IAEA; 2005.

1
Dispositivos de obtención de contorno anatómico. Véase el capítulo 13.
2
La retención de la última imagen permite «congelar» la pantalla con la última imagen adquirida por fluoroscopia y hace
posible su visualización sin necesidad de una nueva irradiación.
3
La etapa de planificación dosimétrica de tratamientos es objetivo de los capítulos 17 a 20, donde se desarrollará en
profundidad.
4
En la sala de tratamiento puede verificarse la coincidencia de cada proyección de campo de luz sobre las marcas
realizadas, comprobando de manera sencilla la incidencia de cada campo y evitando así errores graves en el
posicionamiento.
5
Este tema se desarrolla con mayor profundidad en los capítulos 17 a 20.
6
Como se recoge en el capítulo 7, existen en la actualidad múltiples formatos y presentaciones de las imágenes de
referencia.
7
No es necesario en caso de que el simulador tenga capacidad de reconstrucción tomográfica.
8
Actualmente se están incorporando al mercado dispositivos que tienen en cuenta el movimiento del paciente, mediante
la sincronización de la adquisición y el propio movimiento del paciente, dando lugar a las denominadas adquisiciones
TC4D. Véase el capítulo 14.
C AP Í T U L O 1 3
Posicionamiento, referenciación y
dispositivos de inmovilización
Pablo Castro Tejero

Patricia Sánchez Rubio

Julia Garayoa Roca

ÍNDICE
1. Introducción 188
2. Dispositivos para establecer el sistema espacial de referencia 188
3. Dispositivos de obtención del contorno anatómico 188
4. Dispositivos de inmovilización 189
4.1. Sistema de máscara termoplástica 190
4.2. Plano inclinado 190
4.3. Inmovilizador de tórax 191
4.4. Compresor abdominal 191
4.5. Inmovilizadores de pelvis, rodillas y pies 192
4.6. Colchón de vacío 192
4.7. Cuna alfa 193
4.8. Inmovilizadores especiales para estereotaxia de
cráneo 193
5. La documentación en simulación 194
6. Resumen 196
Bibliografía 196
1. Introducción
El proceso de simulación se lleva a cabo mediante un equipo capaz de adquirir imágenes
de rayos X de kilovoltaje, bien planas, bien volumétricas, cuyas condiciones geométricas
puedan ser trasladadas y reproducidas en la unidad de tratamiento.
La elección de la posición del paciente es un punto fundamental para el posterior
desarrollo del tratamiento. Para ello debe tenerse en cuenta la localización del volumen y
de los órganos de riesgo cercanos, el estado de salud del paciente, las posibles anomalías
anatómicas o implantes, y los dispositivos de inmovilización disponibles. El
posicionamiento final debe ser lo más apropiado para el tratamiento de la lesión y, a la
vez, lo más confortable posible para el paciente.
Para prevenir posibles errores durante la simulación hay que contar con
procedimientos escritos que eviten cuestionarse cómo debe posicionarse un paciente con
una patología localizada en cierta región, o cómo tiene que realizarse la adquisición de
las imágenes.
2. Dispositivos para establecer el sistema espacial
de referencia
Tanto el equipo de simulación como el de tratamiento deben estar equipados con algún
tipo de dispositivo que proporcione un sistema de referencia espacial con el objetivo de
poder correlacionar la posición del paciente en ambas salas. Durante la simulación es el
momento en que se establece una posición o punto de referencia que servirá de origen
para dicho sistema. Este puede indicarse de diversos modos: marcadores radioopacos,
marcadores reflectores de infrarrojos, detección de la superficie del paciente mediante
cámaras de vídeo, etc. Lo más habitual es utilizar marcadores radioopacos, fácilmente
identificables en las imágenes de rayos X (fig. 13-1), cuyas posiciones son tatuadas sobre
la piel del paciente o sobre la superficie del inmovilizador. La presencia de un conjunto
de láseres en ambas salas proporciona la referencia externa para poder correlacionar la
situación de los marcadores de la simulación, esto es, el origen del sistema de referencia,
con el isocentro de los haces de tratamiento: se hace coincidir la posición o punto de
referencia con los láseres de sala y, mediante desplazamientos de la mesa, es posible
situarse en el punto elegido para el isocentro de los haces.
FIGURA 13-1 Corte transversal de tomografía computarizada en el que se observan los tres
marcadores radioopacos que definen el origen del sistema de coordenadas de referencia.
3. Dispositivos de obtención del contorno
anatómico
Durante la simulación, el paciente se encuentra en la posición de tratamiento, lo cual se
aprovecha para obtener una serie de datos anatómicos requeridos en el cálculo
dosimétrico, entre los que se incluyen la forma y las dimensiones del contorno externo
del paciente. Si consideramos el caso de un simulador con capacidad para realizar
tomografía, serán las propias imágenes tomográficas las que proporcionen esta
información. Sin embargo, un simulador convencional sin dicha capacidad necesita un
dispositivo adicional que facilite el contorno externo del paciente en un plano de interés.
Estos dispositivos suelen ser mecánicos o electromecánicos, y han ido evolucionando en
su diseño con el paso del tiempo. Hoy en día existe una amplia variedad de dispositivos
comerciales más o menos sofisticados.
Como dispositivo más habitual cabe mencionar el de tipo pantógrafo (fig. 13-2), en el
cual un puntero, con posibilidad de movimientos horizontales y verticales, se va
adaptando sobre el contorno externo del paciente. La posición del puntero se traslada a
un marcador al que está acoplado, que va registrando el contorno en una plantilla de
papel adherida al tablero del pantógrafo.
FIGURA 13-2 Dispositivo pantógrafo con sus principales componentes.
4. Dispositivos de inmovilización
Los dispositivos de inmovilización, también llamados inmovilizadores, tienen dos
funciones básicas:
• Conseguir que el movimiento del paciente sea mínimo durante el tratamiento.
• Proporcionar una manera sencilla de reproducir la posición del paciente desde la
simulación al tratamiento y de una sesión de tratamiento a otra.
Los inmovilizadores están hechos de materiales no metálicos, para no provocar
artefactos en las imágenes, y radiotransparentes, esto es, que no absorben la radiación
incidente (o lo hacen en grado mínimo) y, por tanto, no modifican el tratamiento. El
material más comúnmente empleado es la fibra de carbono o materiales plásticos.
La mayoría de los dispositivos de inmovilización presentan unas fijaciones especiales
que permiten anclar el dispositivo a la mesa, que a su vez posee unas muescas dispuestas
a tal fin. Se puede establecer así una posición fija del inmovilizador en la mesa a lo largo
del tratamiento, mejorando de manera notable la reproducibilidad del posicionamiento
del paciente.
El tipo de inmovilización depende fundamentalmente de la región anatómica que se
quiere simular, aunque siempre estará supeditado al estado de salud del paciente y a si
este presenta algún tipo de anomalía anatómica, por ejemplo una limitación en la
flexibilidad de los miembros.
A continuación se describen algunos dispositivos de inmovilización que consideramos
más habituales, junto con la localización anatómica para la que típicamente se emplean1.

4.1. Sistema de máscara termoplástica


Existen fundamentalmente dos modelos: uno que se adapta a la cabeza, denominado
máscara de cabeza, y otro que incluye la cabeza, el cuello y los hombros, denominado
máscara de cabeza, cuello y hombros. Existen también sistemas termoplásticos para
inmovilizar el tórax, el abdomen o ambos, que tienen un modo de empleo similar al de
los anteriores, pero son menos frecuentes en la práctica clínica.
Localización: cabeza o cabeza y cuello.
Descripción: el sistema está formado por un soporte para la cabeza o reposacabezas, un
marco de fijación y el propio material termoplástico.
• Reposacabezas: sirve de apoyo para la parte posterior de la cabeza y puede tener
diferentes curvaturas en función del grado de flexión de la cabeza que se pretenda
(fig. 13-3). Existen también almohadillas que permiten fabricar reposacabezas
adaptados a cada paciente, bien hechas con material de resina que en contacto con el
agua se hacen maleables, bien a través de almohadillas de vacío.
• Marcos de fijación: su objetivo es fijar la posición del conjunto en la mesa, evitando el
movimiento y facilitando así la reproducibilidad de la posición durante el tratamiento.
Son rígidos y de material liviano, fibra de carbono o metacrilato, que facilitan su
manejo y transporte (fig. 13-4).
• Material termoplástico: se presenta en forma de malla con múltiples agujeros, para no
producir claustrofobia a los pacientes. Suele estar hecho de resina polimerizada que
tiene la propiedad de que al calentarse se vuelve maleable. Habitualmente viene fijado
a un marco de plástico (fig. 13-5) que se ancla al marco de fijación.

FIGURA 13-3 Reposacabezas con diferentes curvaturas para permitir distintos grados de flexión
de la cabeza.
FIGURA 13-4 Marco de fijación que permite anclar el inmovilizador en la mesa.
FIGURA 13-5 Malla de material termoplástico (verde) con marco de plástico (negro) para
inmovilización de cabeza y cuello.

Modo de empleo: se sumerge el material termoplástico en un baño de agua caliente


(fig. 13-6) cuya temperatura requerida depende del fabricante y varía generalmente entre
60 °C y 80 °C. En el momento en que el material termoplástico alcanza la temperatura del
baño, se saca la malla y se quita el exceso de agua. Una vez seca, y después de asegurarse
de que no existe riesgo de quemadura, se coloca sobre el paciente. El operador irá
adaptando la malla al contorno e irregularidades de la superficie corporal. Al enfriarse, la
malla se vuelve rígida manteniendo la forma de la superficie del paciente de manera
permanente (fig. 13-7).
FIGURA 13-6 Baño de agua caliente para reblandecer el material termoplástico.
FIGURA 13-7 Máscara de cabeza y cuello con el molde de la superficie del paciente, anclada al
marco de fijación.

Otros: en algunas ocasiones, en combinación con las máscaras pueden emplearse


inmovilizadores linguales que se introducen en la boca con el fin de mantener la lengua
en una determinada posición.

4.2. Plano inclinado


Localización: tórax. Se utiliza fundamentalmente para el tratamiento de la mama, aunque
también es útil para lesiones pulmonares. La finalidad de este inmovilizador es situar la
superficie anterior del tórax lo más paralela posible a la mesa de tratamiento. Sin
embargo, debido a que el tórax queda muy elevado, debe procurarse que la inclinación
del plano sea la mínima posible para minimizar el riesgo de colisiones, ya sea en el
propio simulador o posteriormente en la unidad de tratamiento.
Descripción: consta de una superficie plana y rígida fabricada habitualmente de
metacrilato o fibra de carbono, con anclajes para fijar en la mesa y que en uno de sus
extremos presenta una articulación o bisagra (fig. 13-8). Mediante su articulación es
posible inclinar en mayor o menor medida la superficie. El ángulo de inclinación es
regulable, con posiciones fijas que en general varían cada 5°. La cabeza queda colocada
en un apoyo o reposacabezas cuya posición viene identificada con letras o números para
luego reproducirla durante el tratamiento. Los brazos suelen colocarse por encima de la
cabeza. La posición exacta queda fijada por el sistema de inmovilización mediante
pivotes de agarre para las manos o soportes de brazos y muñecas. Estos componentes
suelen ser móviles y sus posiciones se identifican mediante algún tipo de indexación o
numeración. Por último, suelen presentar un apoyo a nivel de las nalgas para evitar que
el paciente se deslice o resbale por la superficie del plano.

FIGURA 13-8 Plano inclinado para inmovilizar lesiones localizadas en el tórax, habitualmente en la
mama.

4.3. Inmovilizador de tórax


Localización: en el tórax.
Descripción: está formado por una superficie plana de metacrilato o fibra de carbono
que suele llevar anclajes para fijar en la mesa y sobre la cual hay fijados un reposacabezas
y soportes de brazos y muñecas (fig. 13-9). Todos estos componentes presentan diversas
posiciones de colocación, todas ellas indexadas para su posterior reproducción en el
tratamiento.
FIGURA 13-9 Inmovilizador empleado para lesiones localizadas en el tórax.

Otros: puede utilizarse conjuntamente con cunas alfa o colchones de vacío.

4.4. Compresor abdominal


Localización: en el tórax y el abdomen.
Descripción: el principal uso de este tipo de inmovilizadores es para lesiones sometidas
a movimiento respiratorio, como pueden ser las localizadas en el pulmón o el hígado. El
movimiento respiratorio es un movimiento periódico, esto es, se repite en el tiempo, con
un periodo aproximado y variable dependiendo del estado del paciente, de entre 3-6
segundos. En general, la administración del tratamiento de radioterapia se produce en
un intervalo de tiempo que comprende varios ciclos respiratorios del paciente. Este hecho
hace que el tamaño aparente de la lesión sea mayor de lo que en realidad es (tan grande
como el desplazamiento que realiza). Mediante el compresor se ejerce una presión sobre
el abdomen, lo que hace que se reduzca el movimiento debido a la respiración y, por
tanto, disminuya el tamaño aparente de la lesión, permitiendo reducir la cantidad de
tejido sano irradiado. Existen diversas maneras de llevar a cabo la compresión
abdominal. Una opción es mediante una lámina soportada por un puente que rodea al
paciente y que ejerce presión mecánica sobre el abdomen (fig. 13-10). La posición de la
lámina se controla con un mecanismo de tornillo y se mide en una escala marcada en el
propio tornillo, con el fin de reproducir la presión ejercida en todas y cada una de las
sesiones. Otra alternativa es utilizar un cinturón neumático cuya presión se controla con
un manómetro que permite controlar la presión aplicada durante las sesiones de
tratamiento (fig. 13-11). La aplicación más habitual de estos inmovilizadores es en los
tratamientos de radiocirugía estereotáxica corporal en los que se administra una alta
dosis de radiación en una sesión o en un número reducido de sesiones.

FIGURA 13-10 Dispositivo de compresión abdominal tipo puente.


FIGURA 13-11 Dispositivo de compresión abdominal mediante cinturón neumático.

Otros: se puede utilizar conjuntamente con cunas alfa o con colchones de vacío, o
puede llevar accesorios adicionales, como inmovilizadores de rodillas y pies, y soporte de
cabeza para facilitar la comodidad del paciente.

4.5. Inmovilizadores de pelvis, rodillas y pies


Localización: en la pelvis y el abdomen.
Descripción: están formados por un marco de fijación fabricado en metacrilato o fibra
de carbono con diversas posiciones de colocación identificadas para su posterior
reproducción durante el tratamiento. Se componen, además, de reposadores para rodillas
y pies con posiciones variables e indexadas (fig. 13-12).
FIGURA 13-12 Dispositivo de inmovilización de pelvis, rodillas y pies.

Otros: pueden utilizarse conjuntamente con cunas alfa o colchones de vacío.

4.6. Colchón de vacío


Localización: este tipo de inmovilizador, dada su facilidad de adaptación a la superficie del
cuerpo y su disponibilidad en diferentes tamaños, se puede emplear en múltiples
localizaciones.
Descripción: son almohadas plastificadas en cuyo interior hay pequeñas esferas de
poliuretano. Son herméticas y están provistas de una válvula antirretorno a través de la
cual se hace el vacío en su interior.
Modo de empleo: se coloca al paciente sobre el colchón de vacío y se va extrayendo el aire
de su interior, de manera que las esferas, al no haber aire, se ponen en contacto extremo
entre sí adaptándose a la forma del cuerpo. Una vez se termina de dar forma al colchón,
se cierra la válvula. El resultado es un molde de la superficie del paciente (fig. 13-13).
FIGURA 13-13 Colchón de vacío.

Otros: presenta la ventaja de ser reutilizable. Sin embargo, el uso prolongado del
colchón de vacío para un paciente, hace que pierda firmeza y pueda ablandarse al final
del tratamiento, provocando errores de posicionamiento. Requiere, además, especial
atención por posibles pérdidas del vacío.

4.7. Cuna alfa


Localización: este tipo de inmovilizador, dada su facilidad de adaptación a la superficie del
cuerpo, puede emplearse en múltiples localizaciones.
Descripción: es similar en concepto al colchón de vacío, pero en este caso se basa en la
reacción química que se produce al mezclar poliuretano con ciertos alcoholes. El
resultado es una espuma que crece y se endurece rápidamente. Esta espuma se introduce
en una bolsa hermética sobre la cual se tiende el paciente.
Modo de empleo: se realiza la mezcla y se rellena la bolsa con la espuma. Se posiciona al
paciente sobre ella antes de que se endurezca. De este modo, la espuma va creciendo,
haciendo que se adapte, contenida por la bolsa, a la superficie del cuerpo. Transcurridos
unos minutos, la espuma se endurece. El resultado es un molde de la zona del cuerpo
requerida con una apariencia muy similar a la del colchón de vacío.
Otros: una cuna alfa es un producto biodegradable, por lo que puede presentar
deformaciones pasado un tiempo (alrededor de 6 meses). Además, durante el proceso de
elaboración se desprende calor, con lo que existe un pequeño riesgo de quemadura, que
se puede minimizar poniendo una prenda liviana al paciente.

4.8. Inmovilizadores especiales para estereotaxia de cráneo


La radiocirugía estereotáxica craneal es un proceso de radioterapia en el cual se imparte
una alta dosis de radiación, bien en una sola sesión o de manera fraccionada. Suelen ser
lesiones pequeñas en lugares cerebrales especialmente críticos. Todo ello requiere un alto
grado de precisión y exactitud en el posicionamiento. Así, se emplean técnicas de
inmovilización especiales en las que se incorpora un marco o guía provisto de un sistema
de coordenadas estereotáxico, que servirá para localizar y posicionar el isocentro durante
el tratamiento. Las diferencias estriban en el modo de fijación del marco:
• Marco fijado al cráneo (fig. 13-14): es un método invasivo en el cual el marco o anillo
estereotáxico se clava en el cráneo del paciente mediante unos tornillos, dos frontales y
dos occipitales. La zona es previamente anestesiada.
• Marco fijado mediante molde dental: el marco estereotáxico se fija en el maxilar
superior del paciente mediante un molde dental a medida.
• Marco fijado a la mesa (fig. 13-15): el marco estereotáxico se fija en la mesa. La posición
de la lesión respecto al marco se asegura mediante una máscara termoplástica especial
junto con la realización de técnicas de imagen de alta precisión en la unidad de
tratamiento. En este caso, la máscara termoplástica consta de dos partes: una base que
se fija a la mesa y otra parte superior, que se ajusta con mucha exactitud sobre la
cabeza del paciente (fig. 13-16).

FIGURA 13-14 Marco estereotáxico invasivo con fijación craneal.


FIGURA 13-15 Marco estereotáxico no invasivo con fijación a la mesa.
FIGURA 13-16 Máscara termoplástica para tratamiento estereotáxico.

Hoy en día, los sistemas de fijación no invasivos están desplazando a los invasivos por
varios motivos, entre los cuales destaca el mayor confort del paciente. Es más, existen
métodos que no utilizan marco durante la simulación y que se basan en el empleo de
técnicas de imagen en la unidad de tratamiento para asegurar el enfoque de la
irradiación de manera muy precisa y exacta.
5. La documentación en simulación
Es recomendable contar con procedimientos escritos que prevengan posibles errores y
resuelvan dudas que eviten cuestionarse cómo debe posicionarse un paciente con una
patología localizada en cierta región, o cómo tiene que realizarse la adquisición de las
imágenes. Un ejemplo de procedimiento se presenta en la tabla 13-1. Los procedimientos
deben estar clasificados en función de la región anatómica de tratamiento, e incluir, al
menos, la localización de las marcas de referencia, el posicionamiento y la inmovilización
del paciente, el protocolo o la técnica de imagen, el tipo y el uso de contraste, e
instrucciones especiales adicionales.

Tabla 13-1
Ejemplos de procedimientos en simulación para cuatro localizaciones típicas

Al finalizar la simulación, ya sea mediante simulación convencional o por simulación


TC, se habrá definido la que a priori representa la geometría más adecuada para el
tratamiento de la lesión, esto es, la posición del paciente y su inmovilización y el sistema
de referencia, y en el caso de la simulación convencional, el conjunto de haces y sus
correspondientes imágenes de referencia. Todo ello ha de quedar debidamente
documentado, ya sea en papel o en formato digital, en la ficha del paciente de la
siguiente manera:
• La posición y la inmovilización deben quedar claramente especificadas. Además, se
obtendrán fotografías del paciente en posición de tratamiento con la inmovilización
empleada, así como de cualquier otro aspecto que pueda ser de utilidad para facilitar
su posicionamiento diario en la unidad de tratamiento. Estas imágenes se incorporarán
a la ficha del paciente.
• Los marcadores colocados sobre la superficie del paciente o del inmovilizador, y
utilizados como sistema de referencia para posicionar al paciente, deben ser tatuados
en la piel del paciente. Su localización tiene que quedar clara en la ficha de
tratamiento.
• Ha de quedar constancia de todos los parámetros geométricos relacionados con los
haces de radiación: ángulo del brazo, ángulo del colimador, ángulo de la mesa, tamaño
del campo, distancia foco-superficie del paciente, uso de conformación, etc.
• Deben existir imágenes de referencia para la verificación de tratamiento. Las más
habituales son las placas de simulación (simulador convencional) y las radiografías
reconstruidas digitalmente (simulador virtual), donde se aprecia la intersección de
cada uno de los haces con la anatomía del paciente. Estas imágenes serán contrastadas
con las obtenidas en la unidad durante el tratamiento en cada sesión del tratamiento.
6. Resumen
Durante la fase de simulación se definen la posición y la inmovilización del paciente,
teniendo en cuenta la localización de la lesión, el estado general del paciente y los
dispositivos de inmovilización disponibles. El posicionamiento final debe ser lo más
confortable posible para el paciente, garantizando una buena reproducibilidad durante
el tratamiento. Se requiere, además, un sistema de referencia que permita correlacionar
la posición del paciente en la sala de simulación y en la de tratamiento. Todo ello debe
quedar bien documentado para su posterior utilización durante el tratamiento.
Es recomendable contar con procedimientos escritos que prevengan posibles errores
durante la simulación, clasificados en función de la región anatómica de estudio.
Además, deberían incluir una serie de aspectos básicos, como la localización de las
marcas de referencia, el posicionamiento y la inmovilización del paciente, el protocolo o
la técnica de imagen, el tipo y el uso de contraste, y observaciones particulares
adicionales.
Bibliografía
IAEA. Técnicas de cuarto de moldes para teleterapia. Manual técnico-práctico de radiación. Viena: IAEA; 2004.
Khan FM. The physics of radiation therapy. 4th ed. Baltimore: Lippincott Williams & Wilkins; 2010.
Podgorsak EB, ed. Radiation oncology physics: a handbook for teachers and students. Viena: IAEA; 2005.

1
La intención en este apartado es presentar los dispositivos, en principio más habituales. Es muy probable que no queden
reflejados todos los sistemas comercializados actualmente. Es evidente, además, que se excluyen aquellos de diseño
propio del centro, aunque no por ello son menos importantes.
C AP Í T U L O 1 4
Equipos y modalidades de imagen
utilizados en simulación
Pablo Castro Tejero

Patricia Sánchez Rubio

Julia Garayoa Roca

ÍNDICE
1. Introducción 197
2. Resonancia magnética 197
2.1. Principios físicos 197
2.2. Componentes 199
2.3. Características de la imagen de resonancia magnética
para radioterapia 200
3. Tomografía por emisión de positrones 201
3.1. Principios físicos 201
3.2. Los detectores 202
3.3. Características de la imagen de tomografía por
emisión de positrones para radioterapia 202
4. Angiografía 203
4.1. Descripción de la técnica 203
4.2. Componentes 204
4.3. Características de la imagen de angiografía para
radioterapia 204
5. Tomografía computarizada 4D 204
5.1. Descripción de la técnica 204
5.2. Características de la imagen TC4D 205
6. Resumen 206
Bibliografía 206
1. Introducción
Dentro del proceso de simulación, la localización de la lesión y los órganos sanos
adyacentes se basa en las imágenes de rayos X facilitadas por el simulador, cuya
descripción y fundamentos físicos son tratados en otros capítulos (v. caps. 7 y 13). Sin
embargo, existen otras modalidades de imagen que pueden proporcionar, en muchos
casos, una información adicional fundamental para la identificación de estructuras, como
la resonancia magnética (RM), la tomografía por emisión de positrones (PET, positron
emission tomography) y la angiografía. Además, para lesiones sometidas a movimiento, las
imágenes proporcionadas por el simulador mediante tomografía computarizada (TC)
pueden presentar artefactos que dificulten la localización anatómica de estructuras. La
modalidad conocida como TC4D permite obtener datos tomográficos de alta calidad en
presencia de movimiento respiratorio.
Toda esta mejora en la información espacial de los tejidos puede redundar en una
optimización de la dosis recibida por el tumor y los tejidos sanos circundantes.
2. Resonancia magnética
2.1. Principios físicos
La imagen de RM se basa en la propiedad que muestran los núcleos de algunos átomos
que, situados en un campo magnético intenso, pueden absorber la energía de ondas
electromagnéticas de radiofrecuencia (RF) y posteriormente emitirla. Esta señal de RF
emitida por los núcleos es captada por antenas y utilizada para formar la imagen (fig. 14-
1).

FIGURA 14-1 Esquema simplificado de la generación de imágenes mediante resonancia


magnética.

La propiedad requerida por los núcleos es que dispongan de momento angular o, en


otras palabras, que describan un movimiento alrededor de su eje (similar al de rotación
de la tierra) (fig. 14-2A). Todos los núcleos con un número impar de protones o neutrones
presentan este movimiento de rotación, también denominado espín nuclear. En concreto,
el hidrógeno cumple esta condición, ya que su núcleo está formado únicamente por un
protón.
FIGURA 14-2 A) Movimiento de rotación de un núcleo atómico alrededor de su eje. B) Líneas de
campo magnético generado por este movimiento. C) Magnitud definida a partir de dicho campo
denominada momento magnético.

Por otra parte, toda carga eléctrica que gira sobre sí misma se comporta como un imán.
Así, los protones, que poseen carga eléctrica positiva, podrán considerarse pequeños
imanes que generan un pequeño campo magnético (fig. 14-2B). Las características
principales de estos campos son su dirección y su intensidad, que definen una magnitud
denominada momento magnético (fig. 14-2C).
Los núcleos empleados para formar la imagen son principalmente los núcleos del
átomo de hidrógeno por varios motivos:
• El momento magnético es mayor que el de cualquier otro núcleo que pueda utilizarse
en RM.
• Gran abundancia en el organismo en forma de agua y grasa.
Si fuéramos capaces de sumar todos los momentos magnéticos de los protones que
forman el cuerpo, podríamos ver que el momento magnético resultante es nulo en
condiciones normales: los momentos magnéticos asociados a cada protón apuntan en
todas las direcciones del espacio, anulándose unos con otros (fig. 14-3A). Cuando
introducimos el cuerpo en un campo magnético intenso ocurren dos fenómenos:
alineación de los protones y el movimiento de precesión.
FIGURA 14-3 A) Momentos magnéticos asociados a los núcleos de 1H en el cuerpo humano sin
presencia de campo magnético. B) Momentos magnéticos de los núcleos de 1H en el cuerpo
humano en presencia de campo magnético.

La alineación de los protones, unos en el sentido del campo (paralelos) y otros en el


sentido opuesto (antiparalelos), define dos estados de energía cuya diferencia es
proporcional a la intensidad de campo:
• Estado paralelo, conocido como estado relajado o de baja energía.
• Estado antiparalelo, conocido como estado excitado o de alta energía.
Dentro de un campo magnético siempre predominan unos pocos en sentido paralelo
(fig. 14-3B), cuya cantidad es proporcional a la intensidad de campo.
Simultáneamente a la alineación sucede otro fenómeno, el denominado movimiento de
precesión en el cual los protones giran sobre su eje alrededor de la dirección del campo
(movimiento similar al de una peonza) (fig. 14-4A). La frecuencia o la velocidad de
precesión en un campo magnético se denomina frecuencia de Larmor, y depende del tipo
de núcleo y de la intensidad del campo magnético. Por lo tanto, en presencia de un
campo magnético externo los protones precesan, pero lo hacen desfasados, es decir, no lo
hacen de manera sincronizada (fig. 14-4B). El momento magnético resultante sigue
siendo no nulo en el sentido del campo magnético externo.
FIGURA 14-4 A) Movimiento de precesión de un núcleo de 1H en presencia de un campo
magnético. B) Movimiento de precesión de los núcleos de 1H en el cuerpo humano en presencia de
un campo magnético.

Cuando incide una onda de RF sobre los átomos de hidrógeno hace que su momento
magnético se incline (fig. 14-5A). Si la onda de RF posee una energía suficiente como para
superar la diferencia entre niveles de energía paralelo-antiparalelo, el número de
protones paralelos y antiparalelos se igualará. Además, si la frecuencia de la RF coincide
con la frecuencia de precesión (Larmor) se conseguirá que todos los protones precesen o
roten acompasados, es decir, en fase. Esto es exactamente el fenómeno de resonancia.
FIGURA 14-5 A) Excitación nuclear en los átomos de 1H en presencia de campo magnético al
incidir una onda de radiofrecuencia: inclinación del momento magnético. B) Relajación nuclear al
cesar la radiofrecuencia con la consiguiente emisión de señal: vuelta al estado inicial del momento
magnético.

Cuando el pulso de RF termina, los protones vuelven a su estado anterior, es decir, se


relajan devolviendo la energía absorbida al entorno molecular, y el momento magnético
vuelve a su estado inicial (fig. 14-5B). Dicha relajación puede dividirse en dos
componentes:
• Relajación longitudinal: los protones antiparalelos vuelven al estado paralelo, con un
tiempo de relajación característico T1.
• Relajación transversal: los protones se desacompasan o desfasan, precesando más o
menos rápido dependiendo de su entorno, con un tiempo de relajación característico
T2.
Ambos procesos generan señales que son recogidas por bobinas o antenas, y cuyos
tiempos de relajación son dependientes del entorno molecular que se pretende estudiar
y, por tanto, darán información de la naturaleza del tejido.
El proceso de localización de los protones en el espacio se realiza en dos fases. En
primer lugar, se divide el cuerpo en pequeños volúmenes cúbicos o vóxeles. En segundo
lugar, para asignar la señal medida a su vóxel correspondiente se aplican gradientes en el
campo magnético producidos por las denominadas bobinas de gradiente. Estos
gradientes pueden aplicarse en cualquier dirección del espacio, permitiendo localizar en
el espacio una señal concreta.

2.2. Componentes
• Imán: genera el campo magnético externo. Los imanes más comunes para la obtención
de imágenes médicas suelen variar entre 0,2 y 3 Teslas (T) para la intensidad de campo
(el campo magnético terrestre oscila entre 25 y 65 µT). Pueden ser permanentes,
formados por una gran pieza de material ferromagnético en forma de C que no
necesita aporte de energía externo, o superconductores (fig. 14-6), formados por una serie
de grandes bobinas por las que circula una corriente permanente gracias a un material
que carece de resistencia eléctrica a muy baja temperatura (conseguida a través de
helio líquido).
• Bobinas de gradiente: suelen ser tres y presentan una forma compleja. Por separado y
sin campo magnético externo, permiten crear campos magnéticos (de menor magnitud
que aquel) en cada una de las tres direcciones del espacio. Su activación combinada con
el campo magnético externo genera gradientes o variaciones en este.
• Antenas de transmisión: se encargan de emitir la señal de RF. Un ejemplo de este tipo
de antenas es la denominada antena de cuerpo, integrada en el gantry, que también
puede recoger la señal emitida.
• Antenas de recepción: son las encargadas de recoger la señal emitida por los núcleos.
En general, estas antenas están diseñadas específicamente para localizaciones
anatómicas concretas. Pueden ser envolventes, rodeando total o en parte al paciente, o
de superficie, que se adaptan al contorno del paciente en la zona a estudiar.

FIGURA 14-6 Componentes principales de un imán superconductor.

2.3. Características de la imagen de resonancia magnética


para radioterapia
Los datos proporcionados por un equipo de RM forman una matriz 3D cuyo formato de
presentación más habitual suele ser en planos transversales, sagitales y coronales (fig. 14-
7). Las ventajas que aporta la imagen por RM a la actividad radioterápica son:
• Aporta información anatómica y fisiológica.
• Alto contraste entre tejidos blandos.
• Muy sensible a cambios patológicos.
• Se ven los vasos sanguíneos sin emplear agentes de contraste.
• No utiliza radiación ionizante.

FIGURA 14-7 Imagen de resonancia magnética. A) Plano transversal. B) Plano sagital. C) Plano
coronal.

Y las desventajas son:


• Menor resolución espacial que la TC.
• Tiempos de adquisición largos, lo que incrementa la posibilidad de aparición de
artefactos de movimiento.
• Imposibilidad de visualizar hueso o calcificaciones (no contienen hidrógeno).
• El pequeño diámetro de apertura puede impedir realizar los estudios (claustrofia,
pacientes obesos).
• Con campos magnéticos intensos se puede alterar la geometría de las imágenes.
3. Tomografía por emisión de positrones
3.1. Principios físicos
Un positrón es una partícula igual que el electrón excepto en que tiene carga positiva. Al
contrario que el electrón, es una partícula que «vive» muy poco tiempo
(aproximadamente 10−9 s). Los positrones pueden ser emitidos por núcleos de ciertos
isótopos radiactivos del carbono, el nitrógeno, el oxígeno, el flúor, etc., que son elementos
comunes constitutivos del cuerpo humano. Los átomos de estos núcleos se utilizan para
«marcar» moléculas que son administradas al paciente, esto es, el átomo (y, por tanto, su
núcleo) se une a la molécula, a la que acompañará durante el recorrido por el organismo.
A la molécula surgida de esta unión se la denomina radiomarcador. El compuesto más
utilizado en el área médica es la glucosa marcada con 18F, formando la denominada
fluorodesoxiglucosa (FDG). Una vez en el cuerpo, el radiomarcador (FDG) se acumula en
las células metabólicamente activas. Como las células tumorales son más activas que las
células sanas, un incremento en la captación de radiomarcador puede estar
correlacionado con la presencia de células tumorales. En esta zona habrá, por tanto,
mayor emisión de positrones.
La forma de detección basada en una gammacámara PET, se basa en el proceso de
aniquilación que sufre el positrón en el organismo: desde que es emitido sufre diversas
colisiones hasta que pierde casi toda su energía; y cuando ha recorrido unos pocos
milímetros y está prácticamente en reposo se combina con un electrón. Fruto de esta
combinación o choque, la pareja electrón-positrón se aniquila o desaparece (v. cap. 2),
dando lugar a dos fotones con la misma energía (511 keV) cada uno, los cuales se emiten
simultáneamente y en sentidos opuestos (fig. 14-8). Estos fotones son detectados por
detectores colocados en forma de anillo, en cuyo centro está situado el paciente.
FIGURA 14-8 Proceso de aniquilación de un positrón emitido por un núcleo atómico, por el que
surgen dos fotones de igual energía, 511 keV, y sentidos opuestos de movimiento.

La línea que une los dos detectores implicados en la misma aniquilación se denomina
línea de respuesta o de coincidencia (fig. 14-9A). Cada detección de un fotón de aniquilación
se denomina suceso o evento sencillo y para que esto sea contabilizado como tal, precisa
que ambos fotones de 511 keV alcancen el detector. Si se pierde alguno, la detección no se
llevará a cabo. Esto puede corregirse mediante una medida de la atenuación de los
fotones como la que proporciona una imagen TC y que dio lugar, entre otras razones, a la
fabricación de los equipos híbridos PET-TC.
FIGURA 14-9 Líneas de respuesta en un tomógrafo PET para una coincidencia verdadera (A), una
coincidencia aleatoria (B) y una coincidencia por dispersión (C).

Para que ambas detecciones sean aceptadas como coincidencia real, lo que se llama
suceso o evento verdadero, deben cumplirse dos condiciones:
• Ambos eventos se producen dentro de un tiempo o ventana de coincidencia
(típicamente 6-12 ns).
• Ambos eventos presentan energías por encima de un valor umbral que asegura que no
han sufrido dispersiones de importancia por el camino.
Estas dos condiciones están diseñadas e integradas en los circuitos electrónicos del
equipo. Una ventaja de la detección en coincidencia es que no se necesitan colimadores
externos; así, se dice que un tomógrafo PET funciona mediante colimación electrónica.
Además de los sucesos verdaderos, se producen sucesos coincidentes que degradan la
calidad de la imagen:
• Coincidencias aleatorias: dos detectores opuestos registran la llegada de su
correspondiente fotón, con una energía apropiada y dentro de una ventana de
coincidencia, pero cada uno de ellos procede de un proceso de aniquilación distinto
(fig. 14-9B).
• Coincidencias por dispersión: durante el trayecto hacia los detectores, los fotones
pueden interaccionar con los tejidos y sufrir cambios de dirección antes de alcanzar el
detector. Si estos choques son lo suficientemente importantes podrán modificar la
trayectoria original del fotón y generar una línea de coincidencia incorrecta (fig. 14-9C).
Al finalizar la adquisición, el sistema cuenta con información sobre el número de
aniquilaciones por cada línea de coincidencia entre dos detectores. Con este valor el
sistema puede asignar, mediante algoritmos matemáticos de reconstrucción similares a
los aplicados en TC, un nivel de intensidad en un punto espacial concreto, en función de
la concentración del radiomarcador, y formar con ello la imagen.

3.2. Los detectores


Están colocados formando anillos dentro de los cuales se sitúa el paciente. Consisten en
un acoplamiento óptico entre un cristal de centelleo y un tubo fotomultiplicador. El
cristal de centelleo convierte los fotones de aniquilación en luz visible. Para ello se
requiere un material muy denso que, con poco espesor, sea capaz de «frenar» la radiación
incidente. Los materiales más habituales son BGO, LSO, GSO y NaI. El tubo
fotomultiplicador cumple la misión de convertir la luz visible en impulsos o señales
eléctricas.
Los cristales y los tubos fotomultiplicadores están dispuestos en bloques
independientes (fig. 14-10), de manera que mientras se detecta un evento en uno de ellos
y se le asigna una posición, el resto de los bloques siguen activos.

FIGURA 14-10 Bloque detector para PET formado por cristales de centelleo acoplados a tubos
fotomultiplicadores.

3.3. Características de la imagen de tomografía por emisión


de positrones para radioterapia
Los datos proporcionados por el equipo PET forman una matriz 3D cuyo formato de
presentación más habitual suele ser en planos transversales, sagitales y coronales (fig. 14-
11). Las ventajas que aporta la imagen PET a la actividad radioterápica pueden resumirse
en las siguientes:
• Proporciona información metabólico-molecular.
• Puede llegar a diferenciar lesiones o tumores malignos del tejido sano que los rodea.
• El nivel de intensidad puede dar información del grado de malignidad del tumor.
• Permite realizar un seguimiento de la evolución de la lesión y valorar el resultado del
tratamiento.
FIGURA 14-11 Imagen de PET. A) Plano transversal. B) Plano sagital. C) Plano coronal.

Sin embargo, presenta una serie de inconvenientes:


• La resolución geométrica de la imagen es muy baja (tamaño de píxel típico: 4-5 mm).
• Aporta poca o nula información anatómica
Estos inconvenientes hacen que los bordes de la lesión estén pobremente definidos. El
desarrollo tecnológico de sistemas que integran un equipo TC y un equipo PET permite
la adquisición conjunta de datos que pueden llevar a superar las limitaciones de ambas
técnicas por separado. Así, el empleo de equipos híbridos PET/TC se está convirtiendo en
una herramienta muy útil dentro del proceso radioterápico. Además de los beneficios
que ofrece al combinar la información anatómica de la TC con la información metabólica
de la PET, aporta una ventaja adicional en comparación con las imágenes de PET y TC por
separado: el paciente se mantiene en la misma posición durante ambas adquisiciones, ya
que la mesa es la que se desplaza de un escáner a otro. Esto hace posible fusionar ambos
conjuntos de imágenes de manera inmediata, utilidad que se pierde si realizamos las
imágenes en diferentes equipos.
Por otra parte, la disponibilidad de la imagen TC y su óptima resolución geométrica,
permiten disponer de un archivo de transmisión que posibilita corregir por la atenuación
de los fotones de aniquilación.
4. Angiografía
4.1. Descripción de la técnica
La angiografía es un procedimiento invasivo de imagen por rayos X cuya función es el
estudio de los vasos circulatorios que no son visibles mediante la radiología
convencional. Su nombre procede de las palabras griegas angeion (vaso) y graphien
(descripción).
El procedimiento comienza con la introducción de un catéter flexible pequeño en una
arteria o vena, previa anestesia local. Se coloca una aguja pequeña en el vaso sanguíneo,
mediante la cual se introduce un alambre guía. Se desliza posteriormente el catéter sobre
el alambre, y luego sobre el vaso sanguíneo. Introducido el catéter cuidadosamente por el
sistema vascular, se le hace avanzar manualmente hasta la región de interés, observando
su recorrido mediante imágenes de rayos X. Una vez en la región de interés, se inyecta a
través del catéter un medio radioopaco o de contraste, de manera que los vasos que
contienen la sustancia de contraste aparecen delineados sobre el resto del tejido (fig. 14-
12). Las imágenes nos informan de la morfología del árbol arterial, así como de la
existencia de estrechamientos (estenosis), obstrucciones, dilataciones anormales, etc.
FIGURA 14-12 Imagen craneal obtenida mediante angiografía.

La angiografía se utiliza en radioterapia en el tratamiento de malformaciones


arteriovenosas (MAV) (un entramado arterial generalmente de origen congénito)
mediante la técnica denominada radiocirugía estereotáxica. Para ello, el estudio debe
realizarse con el paciente en posición de tratamiento garantizado mediante el uso de la
guía o marco estereotáxico utilizado para este cometido (v. cap. 13).

4.2. Componentes
Un angiógrafo (fig. 14-13) está compuesto por:
• Arco en C: estructura en forma de C, en uno de cuyos extremos hay un tubo de rayos X
y en el otro un intensificador de imagen, de forma que puede girar alrededor de la
mesa.
• Mesa: lugar sobre el que se coloca el paciente, desplazable de forma telemandada,
desde el mismo lugar donde se encuentra o desde el puesto de control.
• Panel de control en sala: consola desde la que se realizan los movimientos de la mesa y
del arco. También permite seleccionar la técnica de imagen: fluoroscopia o radiografía,
tamaño de foco, kilovoltaje, etc.
• Monitores de televisión: sirven para visualizar las imágenes que se adquieren durante
el procedimiento.
• Generador de alto voltaje: suministra la potencia eléctrica al tubo de rayos X.
• Consola de trabajo: situada en el puesto de control fuera de la sala de intervenciones.
Se utiliza, al igual que el panel de control, para realizar de forma telemandada los
movimientos de la mesa y el arco, seleccionar la técnica, manejar las imágenes, etc.
FIGURA 14-13 Componentes principales de un angiógrafo.

4.3. Características de la imagen de angiografía para


radioterapia
Dado que el objetivo del estudio angiográfico es visualizar la MAV y definir su
localización espacial, se requieren al menos dos proyecciones para determinar sus
coordenadas espaciales. De esta forma se puede apreciar la secuencia del paso del medio
de constraste a través de la MAV, visualizándose de forma nítida en un determinado
momento (fig. 14-14). Es precisamente esta imagen la que es seleccionada para delinear la
MAV en el sistema de planificación. La imagen obtenida debe además contener las
marcas fijadas al marco estereotáxico, las cuales permiten correlacionar las coordenadas
del estudio angiográfico con las del estudio con TC.

FIGURA 14-14 Imágenes de angiografía para radioterapia en las que se aprecian las marcas
proporcionadas por el marco de estereotaxia. A) Proyección anteroposterior. B) Proyección lateral.
5. Tomografía computarizada 4D
5.1. Descripción de la técnica
El estudio de simulación TC se realiza en un intervalo de tiempo muy breve, por lo que
no permite visualizar el movimiento de los órganos (al contrario de lo que ocurre en la
simulación convencional si empleamos el modo de fluoroscopia). De hecho, el
movimiento respiratorio durante la realización de estudios puede provocar artefactos
que alteren tanto el tamaño y la forma como la densidad aparente de las estructuras
(fig. 14-15).

FIGURA 14-15 Plano sagital de la imagen de tomografía computarizada de un maniquí, en cuyo


interior hay una esfera y un cubo en diferentes condiciones. A) Adquisición realizada sin movimiento.
B-D) Adquisiciones realizadas con movimiento longitudinal aplicado sobre el maniquí, donde pueden
apreciarse los cambios de tamaño y forma provocados por dicho movimiento.

Para controlar o reducir los artefactos de movimiento debidos a la respiración existen


distintas técnicas de control respiratorio. La modalidad conocida como TC4D consiste en
sincronizar la adquisición de imágenes con el movimiento respiratorio del paciente
mientras este respira libremente. Para llevar a cabo dicha sincronización, es necesario un
sistema que monitorice el ciclo respiratorio del paciente. Esta información es transmitida
al equipo de TC, de forma que se controlan los disparos de rayos X sincronizándolos al
ciclo respiratorio. Existen básicamente dos tipos de estudios de TC4D:
• Estudio prospectivo: la adquisición de las imágenes se realiza sincronizando un instante
de la señal de la respiración a la del disparo de los rayos X, obteniéndose todas en el
mismo momento o fase del ciclo respiratorio (fig. 14-16).
• Estudio retrospectivo: la adquisición se hace durante todo el ciclo respiratorio,
generándose un conjunto de datos que están etiquetados con cada momento del ciclo.
En el procesamiento posterior del estudio, en que se procede a la reconstrucción u
ordenación de las imágenes según el instante del ciclo respiratorio que se seleccione,
se obtienen tantas series de imágenes como fases o momentos del ciclo queramos
reconstruir (fig. 14-17).
FIGURA 14-16 Esquema de adquisición TC4D de un estudio prospectivo, en el cual, a modo de
ejemplo, se lleva a cabo la adquisición de datos en la fase de inspiración.

FIGURA 14-17 Esquema de adquisición TC4D de un estudio retrospectivo, en el cual, a modo de


ejemplo, se consideran únicamente tres fases de reconstrucción, aunque potencialmente son N
fases posibles.

5.2. Características de la imagen TC4D


La información obtenida mediante un estudio TC4D permite valorar el movimiento de la
lesión que se produce a lo largo del ciclo respiratorio, evitando la aparición de artefactos
o emborronamientos de la imagen debidos al movimiento.
Por otra parte, en una adquisición retrospectiva TC4D se obtiene un conjunto de
estudios TC3D en diferentes fases respiratorias. Este conjunto de estudios puede
combinarse de manera diferente durante la reconstrucción, permitiendo valorar la
amplitud del movimiento de la lesión, pudiéndose llegar a trazar la envolvente de la
misma a lo largo de todo el ciclo respiratorio. Algunas de estas técnicas de
reconstrucción son:
• Proyección de máxima intensidad (MIP): estudio TC3D generado al seleccionar, para
cada localización de vóxel de todos los estudios de fase, el de mayor valor de Unidad
Hounsfield. Es útil para estructuras cuya densidad es mayor que la del fondo, como por
ejemplo nódulos pulmonares de pequeño tamaño.
• Proyección de mínima intensidad (MinIP): estudio TC3D generado al seleccionar, para
cada localización de vóxel de todos los estudios de fase, el vóxel de menor valor de
Unidad Hounsfield. Es útil para objetos cuya intensidad es menor que la del fondo,
como ocurre en ciertos tumores de hígado.
• Proyección de intensidad promedio (MeanIP): estudio TC3D generado al determinar el
promedio de todos los valores de Unidad Hounsfield, para cada localización de vóxel
de todos los estudios de fase.
6. Resumen
La aportación principal de los diferentes estudios de imagen al proceso radioterápico es
la de permitir una identificación más precisa y eficiente de determinados tipos de
estructuras. Así, por ejemplo, la RM ofrece una información anatómica muy precisa
debido a su alta resolución de bajo contraste (discriminación de tejidos de similar
densidad). La PET aporta información metabólica del comportamiento del tumor a partir
de moléculas marcadas con núcleos emisores de positrones. La angiografía es una técnica
de rayos X que aporta información vascular mediante la introducción de una sustancia de
contraste en los vasos circulatorios. Por último, la TC4D permite obtener datos
tomográficos de alta calidad en presencia de movimiento respiratorio mediante la
sincronización de la adquisición TC con el ciclo respiratorio, disminuyendo el
emborronamiento de las imágenes.
Bibliografía
González J, Delabat RG, Muñoz C. Tecnología radiológica. Madrid: Paraninfo; 1996.
Hornak JP. The basics of MRI. Disponible en: https://www.cis.rit.edu/htbooks/mri/.
Khan FM. The physics of radiation therapy. 4th ed. Baltimore: Lippincott Williams & Wilkins; 2010.
Lafuente J. Atlas de tecnología de la resonancia magnética: una explicación intuitive. 2ª ed. Madrid: Mallinckrodt; 2003-2004.
Martí-Climent JM, García MJ, Serra P, Boán JF, Richter JA. Tomografía por emisión de positrones con un equipo
PET/TAC. Rev Esp Med Nucl. 2005;24:60–79.
Riederer SJ, Wood ML. Categorical course in physics: the basic physics of MR imaging. Radiological Society of North
America, Scientific Assembly; 1997.
Rodríguez-Romero R, Castro P. The influence of respiratory motion on CT image volumen definition. Med Phys. 2014;41:
041701/11.
Ruiz JA, Melgarejo M, Ossola G, Martín R, Ordovas A, Kostvintseva O. Tomógrafos PET. Rev Esp Med Nucl.
2001;20:561–574.
C AP Í T U L O 1 5
Registro y fusión de imágenes
multimodalidad
Pablo Castro Tejero

ÍNDICE
1. Introducción 207
2. Integración de imágenes multimodalidad 207
3. Registro 208
3.1. Tipos de transformaciones 208
3.2. Métodos de registro según su naturaleza 208
4. Fusión 210
5. Resumen 211
Bibliografía 211
1. Introducción
La tomografía computarizada (TC) es la modalidad que sirve de base para la
planificación de tratamientos en radioterapia, debido, entre otros aspectos, a que el
cálculo de dosis se basa en la información espacial de densidades de los tejidos que
proporciona las Unidades Hounsfield. Sin embargo, cada vez más se están incorporando
distintos tipos de imagen que proporcionan información adicional muy valiosa a la hora
de la localización de estructuras. Este hecho está haciendo que la integración de la
imagen multimodalidad sea una herramienta indispensable en la práctica clínica.
La integración de imágenes multimodalidad puede dividirse en dos etapas. En la
primera de ellas, el registro, se realiza una serie de transformaciones geométricas entre
las diferentes imágenes de cada modalidad hasta lograr su coincidencia. Existen diversos
métodos de registro, que se diferencian unos de otros en aspectos tales como el tipo de
transformación aplicada, las modalidades implicadas o el algoritmo de optimización.
Una vez establecida la correspondencia geométrica se lleva a cabo la segunda etapa, la
fusión, que consiste en la superposición visual de las imágenes previamente registradas,
lo que permite la comparación directa entre ellas.
2. Integración de imágenes multimodalidad
La mayor parte de los sistemas de planificación ofrecen la posibilidad de combinar la
información de diferentes estudios de imagen mediante un proceso de integración de
imágenes. En cualquier proceso de integración de imágenes intervienen dos elementos
(fig. 15-1):
1. Estudio de referencia o primario: permanece inalterado, sin sufrir modificaciones
durante el proceso.
2. Estudio flotante o secundario: se realiza una serie de transformaciones con el fin de
que coincida con el estudio de referencia.
FIGURA 15-1 Esquema del proceso de integración de imágenes.

En radioterapia, la estrategia más común es integrar cada uno de los estudios de


imagen adicionales respecto al estudio de TC que se utilizará para la planificación del
tratamiento. Por tanto, este estudio de TC se considerará el estudio primario, y el estudio
sobre el que se realizarán las modificaciones, sea tomografía por emisión de positrones
(PET) o resonancia magnética (RM) habitualmente, será el estudio secundario.
El número de dimensiones de las imágenes que se manejan en la mayoría de los casos
en la práctica radioterápica es de tres. El estudio primario es un estudio tomográfico,
TC3D, al igual que ocurre con el estudio secundario, por lo que se habla de integración
3D/3D.
Las imágenes secundarias proceden principalmente de modalidades como la PET o la
RM, y de ahí el nombre de integración multimodalidad TC/PET o TC/RM. También puede
incluirse la integración con el estudio de imagen obtenido en la unidad de tratamiento
para verificar la posición del paciente mediante TC de haz cónico (integración TC/CBCT)1.
Además, puede darse el caso de que se realicen diferentes estudios con la misma
modalidad a lo largo del tiempo, por ejemplo para comprobar la evolución del tumor. Se
hablaría entonces de integración monomodalidad.
Además, cuando las imágenes adquiridas provienen de un mismo paciente, como
ocurre habitualmente, se denomina integración intrasujeto. En caso de proceder de
distintos pacientes se hablaría de integración intersujeto.
El proceso de integración multimodalidad puede dividirse en dos etapas:
• Registro: a través de una serie de transformaciones geométricas se consigue que ambos
conjuntos coincidan o «encajen» lo mejor posible.
• Fusión: permite la visualización conjunta de las imágenes en el mismo plano para
comprobar su correcta alineación.
3. Registro
El registro puede definirse como el proceso de establecer la correspondencia espacial
para cada punto de la imagen primaria con un punto en la imagen secundaria, de manera
que sea posible la comparación directa entre ellas2. Para ello, se aplican una serie de
transformaciones que tratan de corregir las diferencias geométricas existentes (tamaño,
orientación, distorsión espacial, etc.). Puede decirse, por tanto, que el registro
proporciona una referencia geométrica común a partir de las imágenes originales del
objeto.
Al aplicar una transformación geométrica a una imagen se modifican las coordenadas
de sus vóxeles, de modo que cada punto se traslada a una nueva coordenada, alterando la
geometría de la imagen original. El grado de deformación será mayor o menor según la
transformación que se emplee en el proceso.

3.1. Tipos de transformaciones


Podemos clasificar las transformaciones en dos grupos: lineales, en las cuales se
consideran sólo traslaciones, rotaciones o cambios de escala, y no lineales, también
llamadas elásticas o deformables, que permiten deformar elásticamente una imagen para
que se parezca a la de referencia (fig. 15-2). Las transformaciones lineales, a su vez,
pueden catalogarse en:
• Transformaciones rígidas: aquellas en las que se traslada y rota la imagen original,
conservando todas las distancias.
• Transformaciones rígidas con escalado: igual que el caso anterior, pero añadiendo un
escalado o zoom, que puede aplicarse en toda la imagen por igual o de manera
diferente para cada una de las dimensiones.
• Transformaciones afines: conservan la rectitud de las líneas, la planitud de las
superficies y el paralelismo entre líneas, pero permiten que los ángulos cambien.
• Transformaciones de perspectiva: suponen un cambio de perspectiva en la imagen,
debiendo cumplir, únicamente, que las líneas rectas y las superficies planas lo sigan
siendo tras la transformación.
FIGURA 15-2 Ejemplos de diferentes tipos de transformación geométrica en dos dimensiones.

Las transformaciones lineales son útiles cuando las estructuras que se registran son
óseas o delimitadas por huesos. Sin embargo, la deformación que sufren los tejidos
blandos y algunos órganos, como los pulmones debido al movimiento respiratorio, o el
corazón debido al movimiento cardiaco, no puede compensarse totalmente mediante
transformaciones lineales. En estas circunstancias es conveniente aplicar modificaciones
locales, que descomponen el volumen original en volúmenes más pequeños aplicando
transformaciones lineales a cada uno de ellos. Sin embargo, en muchos casos estas
técnicas no son suficientes para lograr una coincidencia anatómica aceptable. La solución
pasa por utilizar transformaciones no lineales o elásticas. Existen diversos modelos
atendiendo al grado de complejidad, siendo el más complejo aquel en que cada punto o
vóxel puede moverse independientemente.
Cada una de las transformaciones citadas incrementa su complejidad de cálculo según
el orden en que se han ido mencionando, lo que supone mayores dificultades de
implementación y validación, aparte de los mayores costes computacionales que
conllevan.

3.2. Métodos de registro según su naturaleza


De acuerdo con la naturaleza del registro es posible hacer la siguiente clasificación:
• Registro por equivalencia de puntos.
• Registro por equivalencia de superficies.
• Registro basado en la intensidad.

Registro basado en puntos


Los métodos basados en puntos consisten en reconocer o identificar parejas de puntos
comunes en cada estudio. A partir de las coordenadas de los puntos, que representan la
misma posición en el paciente, puede calcularse la transformación rígida para el registro
de los dos estudios.
Estos puntos comunes o equivalentes pueden ser definidos por el operador o
automáticamente. Dependiendo de si los puntos se obtienen empleando marcadores
artificiales o características anatómicas de las imágenes, se distinguen:
• Registro por medio de marcadores externos o extrínsecos: hace uso de dispositivos o
marcadores no pertenecientes a la propia anatomía y que son adosados artificialmente
al paciente. Ejemplos de estos marcadores son los marcos de estereotaxia, los
marcadores fiduciales y los moldes o monturas. El marco estereotáxico para
radiocirugía es un dispositivo invasivo que consiste en fijar, mediante unos punzones,
un anillo rígido al cráneo del paciente, sobre el que se colocan marcadores o
referencias específicas para cada modalidad de imagen utilizada (v. cap. 19). Este
procedimiento garantiza una buena precisión, pero tiene como principal inconveniente
la incomodidad, molestia y dolor provocados al paciente. Los marcadores no invasivos
son más sencillos de usar. De ellos, los que se colocan sobre la piel son los más
utilizados y consisten en pequeñas cápsulas adhesivas que portan una pequeña
cantidad de sustancia identificable en todas las modalidades de imagen. A pesar de su
comodidad, están sujetos a la movilidad de la piel, lo cual puede reducir su precisión.
Los moldes faciales, dentales o las gafas son una solución intermedia, pero su uso es
más complejo y también pueden moverse. Sea cual sea el marcador escogido, debe
asegurarse que es claramente identificable en todas las modalidades de imagen que se
pretende registrar. La principal desventaja de estos métodos es la necesidad de que
todos los estudios tengan los mismos marcadores colocados en el mismo lugar y de la
misma forma, lo que no siempre resulta posible si los estudios de imagen se llevan a
cabo en departamentos diferentes o incluso en fechas distintas.
• Registro por medio de marcadores anatómicos o intrínsecos: emplea estructuras
anatómicas visibles en todas las modalidades a registrar. Tiene la desventaja de que el
reconocimiento de los marcadores anatómicos no siempre es fácil. Así, la información
anatómica proporcionada por cada modalidad de imagen limitará la identificación
inequívoca de los marcadores al usuario que realiza el registro.

Registro basado en superficies


En general, los bordes o superficies son más distinguibles en las imágenes médicas que
las características anatómicas concretas. El método de registro basado en superficies
consiste en la identificación de las superficies correspondientes en cada imagen y la
determinación de la transformación para obtener la mejor coincidencia posible. El
registro por superficies permite transformaciones tanto flexibles como rígidas.
Para llevar a cabo la transformación es necesario segmentar o contornear la superficie
de una estructura. Este proceso de segmentación suele realizarse de manera automática o
semiautomática, siendo la superficie de la piel una de las más utilizadas, ya que la
interfase entre la piel y el aire circundante tiene un buen contraste en la mayoría de las
modalidades de imagen.
Tanto el registro basado en puntos como el de coincidencia de superficies suelen tener
un buen comportamiento con imágenes anatómicas (TC o RM).

Registro basado en la intensidad


El registro basado en la intensidad consiste en el cálculo de la transformación que alinea
dos imágenes, utilizando sólo los valores de cada vóxel. A diferencia de los métodos antes
descritos, para registrar las imágenes se utiliza toda la información contenida en la
imagen, en vez de un pequeño conjunto de puntos o superficies. La base de estos
métodos es la generación de una función matemática (denominada función de coste), a
partir de una combinación aritmética de los valores de vóxel de las imágenes, que
proporcione una medida del parecido entre ellas. Dicha función alcanzará un valor
óptimo cuando las imágenes estén alineadas. El algoritmo de optimización es iterativo,
esto es, la transformación se va modificando hasta que la función de coste alcanza un
máximo que indica un registro correcto de las imágenes.
Los métodos más comunes, cuando se quieren registrar datos provenientes de estudios
TC3D exclusivamente, son el registro por minimización de diferencias de intensidad y el
registro por correlación cruzada de los valores de intensidad. Para el registro de
modalidades diferentes, aunque también es aplicable a modalidades similares, el tipo
más habitual es la técnica basada en la teoría de la información que emplea como función
de coste la información mutua. La complejidad de tales técnicas cae fuera del alcance de
este libro.
Este tipo de registros se aplican de manera automática, por lo que se requiere una
revisión por parte de la persona encargada una vez realizados.
4. Fusión
La segunda etapa de la integración es la fusión o superposición visual de los estudios de
imagen previamente registrados, y permite la visualización conjunta de los vóxeles de
cada imagen.
Existe una gran variedad de técnicas para presentar datos fusionados. A continuación
se comentan los más utilizados en radioterapia:
• «Lado a lado»: se visualizan ambos estudios a la vez, pero en ventanas diferentes y con
el cursor sincronizado (fig. 15-3).
• «Cortinilla móvil»: permite situar un estudio sobre el otro sin mezclarlos, de modo que
desplazando el cursor se visualice el estudio situado por debajo del primero (fig. 15-4).
• Superposición mediante escala de grises o colores: se presentan los estudios
superpuestos, cada uno de ellos con colores o escalas de grises previamente definidas
por el usuario (fig. 15-5). Mediante una barra de desplazamiento puede acentuarse el
nivel de visualización de un estudio frente al otro, de manera que en un extremo de la
barra únicamente se visualizará el estudio primario y en el otro el estudio secundario.
En posiciones intermedias, los estudios aparecerán mezclados en un porcentaje
establecido por el nivel seleccionado en la barra de desplazamiento.

FIGURA 15-3 Ejemplo de fusión de imágenes TC/RM mediante el método de «lado a lado», con el
cursor conectado.
FIGURA 15-4 Ejemplo de fusión de imágenes TC/RM mediante el método de la «cortinilla móvil».
FIGURA 15-5 Ejemplos de fusión de imágenes TC/RM mediante escala de colores (A, verde TC y
rojo RM) y mediante escala de grises (B).

Existen también otros métodos que emplean algoritmos mucho más sofisticados, pero
que no caen dentro de los objetivos de este libro.
Una utilidad de la fusión de imágenes en radioterapia es la posibilidad de contornear o
segmentar una estructura en la modalidad con mejores prestaciones para su
visualización, traspasando posteriormente dichos contornos al estudio primario con TC
de planificación. Este proceso recibe el nombre de mapeo de estructuras.
5. Resumen
En la práctica clínica oncológica es cada vez más habitual realizar diferentes estudios de
imagen al mismo paciente, ya sea empleando distintas modalidades o con la misma
modalidad a lo largo del tiempo. Los sistemas de planificación ofrecen la posibilidad de
integrar estos estudios, de manera que la información suministrada por cada modalidad,
habitualmente complementaria, puede mejorar el resultado final en la definición de
lesiones o de ciertas estructuras.
Para combinar la información de los diferentes estudios es necesario corregir las
diferencias geométricas existentes entre ellos. Al proceso de establecer la correlación
espacial punto a punto entre las diferentes imágenes, de manera que sea posible la
comparación directa entre ellas, se le denomina registro. Una vez realizado el registro, las
imágenes pueden visualizarse de manera conjunta integrando los datos de ambas; esta
etapa se denomina fusión. Ambas etapas pueden llevarse a cabo de diversas formas. La
elección de uno u otro método dependerá de la aplicación particular y de los tipos de
modalidades involucrados.
Bibliografía
Kessler ML. Image registration and data fusion in radiation therapy. Br J Radiol. 2006;79:S99–S108.
Lampreave JL, Desco M, Benito C, Domínguez P, López J, Bittini A, et al. Integración de imágenes médicas
multimodalidad. Rev Esp Med Nucl. 1998;17:27–34.
Pascau J. Integración de imágenes biomédicas: técnicas basadas en teoría de la información. Tesis doctoral;. 2006.
Salvador FJ, Jiménez P. Fusión y correlación de imágenes multimodalidad. Revista Oncología. 2002;25:76–88.

1
Cabe mencionar también la verificación hecha en la unidad de tratamiento con placas que presentan una proyección 2D
comparadas con las radiografías reconstruidas digitales. En este caso se trataría de integración 2D/2D.
2
La palabra «registro» es un anglicismo derivado directamente del inglés registration.
C AP Í T U L O 1 6
Procedimientos tecnológicos. El control de
calidad en la simulación
Pablo Castro Tejero

Patricia Sánchez Rubio

Julia Garayoa Roca

ÍNDICE
1. Introducción 212
2. Objetivos 212
3. Marco normativo en España 212
4. Pruebas de control de calidad 213
4.1. Simulador convencional 213
4.2. Simulador TC 213
5. Resumen 213
Bibliografía 213
1. Introducción
Un simulador es un equipo de rayos X que se utiliza no como herramienta diagnóstica
sino como herramienta del proceso de radioterapia para la localización de estructuras, el
diseño del tratamiento y, en caso de presentar capacidad de adquisición tomográfica, el
cálculo de dosis. Por todo ello, debe proporcionar una información geométrica exacta y
una calidad de imagen lo suficientemente buena como para obtener una información
anatómica precisa. Así, el control de calidad de estos equipos puede dividirse en dos
grupos: un grupo de pruebas que incluye el funcionamiento geométrico y mecánico del
equipo, y otro que estudia la calidad de las imágenes1. De la misma manera, todo equipo
empleado en la adquisición de imágenes adicionales para la localización de la lesión
habrá de pasar unas determinadas pruebas de control de calidad que aseguren su
idoneidad para el proceso radioterápico.
2. Objetivos
El control de calidad en los equipos de simulación de radioterapia tiene dos objetivos
fundamentales:
• Comprobar el correcto funcionamiento mecánico del equipo, para evitar o reducir la
probabilidad de cometer errores que puedan transmitirse a la unidad de tratamiento y
desembocar en una mala administración de este.
• Hacer posible la obtención de imágenes de alta calidad que permitan localizar con
precisión y exactitud la lesión y los órganos de riesgo cercanos, compatible con la
menor dosis posible al paciente, respetando los niveles de referencia, como en
cualquier estudio de radiodiagnóstico.
3. Marco normativo en España
A efectos normativos, el control de calidad del funcionamiento mecánico de los equipos
de simulación se recoge en el RD 1566/1998, por el que se establecen los criterios de
calidad en radioterapia.
Por otro lado, el control de calidad sobre la calidad de imagen puede adaptarse a partir
del RD 1976/1999, por el que se establecen los criterios de calidad en radiodiagnóstico.
Más en profundidad, el Protocolo Español de Control de Calidad en Radiodiagnóstico,
publicado en 2011, detalla las pruebas a realizar para diferentes equipos de rayos X,
incluyendo los sistemas digitales, que desde hace unos años se están imponiendo en el
campo. Los requisitos o pruebas pueden modificarse por razones justificadas en función
de los objetivos de los estudios llevados a cabo y de la tecnología disponible. En el caso
de los equipos de simulación, las exigencias sobre las imágenes cuyo uso será destinado
al tratamiento radioterápico serán diferentes a las que deben cumplir las destinadas a
uso diagnóstico.
El responsable de realizar las pruebas de control de calidad es el radiofísico
hospitalario, con una periodicidad establecida según la normativa vigente.
4. Pruebas de control de calidad
4.1. Simulador convencional
Pruebas geométricas
El simulador convencional es una máquina que imita los movimientos de la unidad de
tratamiento, por lo que el funcionamiento mecánico del equipo deberá ser igual de
preciso. Por este motivo, las pruebas geométricas del simulador convencional serán las
mismas que para la unidad de tratamiento.

Pruebas de calidad de imagen


• Modo radiográfico: verificación de ausencia de artefactos en la imagen.
• Modo fluoroscópico:
• Visualización de la escala de grises en el monitor.
• Resolución espacial.
• Uniformidad de la resolución.
• Umbral de sensibilidad a bajo contraste.
• Verificación de ausencia de artefactos en la imagen.

4.2. Simulador TC
Pruebas geométricas
• Alineación de los láseres y coincidencia en el eje de rotación.
• Comprobación de la orientación del paciente en la imagen.
• Horizontalidad de la mesa bajo carga.
• Exactitud de los desplazamientos vertical y longitudinal de la mesa de acuerdo a los
indicadores digitales.
• Verificación de la localización geométrica de cortes seleccionados en el escanograma.

Pruebas de calidad de imagen


• Integridad espacial midiendo la separación entre dos puntos en la imagen separados
una distancia conocida.
• Constancia y exactitud de las Unidades Hounsfield para diferentes materiales de
densidad conocida.
• Uniformidad de la imagen en una región homogénea.
• Ruido de la imagen.
• Resolución espacial.
• Resolución a bajo contraste.
• Verificación de la ausencia de artefactos en la imagen.
En ciertos casos, la determinación del volumen de tratamiento y su posición relativa a
los órganos sanos adyacentes pueden llevarse a cabo con mayor precisión utilizando
otras modalidades de imagen, como la resonancia magnética (RM), la tomografía por
emisión de positrones, la angiografía o la tomografía computarizada 4D. Debido a ello,
estos equipos han de someterse también a pruebas de control de calidad que aseguren
una adecuada calidad de la imagen sin presencia de artefactos que puedan comprometer
la localización de la lesión respecto a la imagen de simulación. Los artefactos más
habituales se presentan como una distorsión geométrica en la imagen, y son más
frecuentes en RM, debido a la no homogeneidad del campo magnético, o en imágenes
adquiridas con intensificador de imagen, como por ejemplo el angiógrafo o el propio
simulador convencional.
5. Resumen
Todo simulador debe proporcionar una información geométrica exacta y una calidad de
imagen lo suficientemente buena para obtener una información anatómica precisa. Con
el objetivo de cumplir estos requerimientos es importante someter a los equipos de
simulación a un estricto control de calidad. Pueden distinguirse dos tipos de pruebas
dentro del control de calidad: las que sirven para comprobar su correcto funcionamiento
geométrico y mecánico, y las que contrastan la calidad de las imágenes.
Bibliografía
Protocolo Español de Control de Calidad en Radiodiagnóstico. Revisión 2011. SEFM/SEPR/SERAM; 2011. Disponible en:
http://www.sergas.es/Docs/ProtocoloPECCRD2011.pdf.
Real Decreto 1566/1998, de 17/07/1998, por el que se establecen los criterios de calidad en radioterapia. BOE n° 206.
28/08/1998. Disponible en http://www.sepr.es/html/recursos/normativa/Real%20Decreto%201566%201998.pdf.
REAL DECRETO 1976/1999 de 23/12/1999 por el que se establecen los criterios de calidad en radiodiagnóstico BOE n°
311 de 29/12/1999. Disponible en
http://www.sepr.es/html/recursos/normativa/Real%20Decreto%201976%201999.pdf.

1
Existe una tercera categoría, relacionada con el funcionamiento del generador de rayos X. Este grupo incluiría pruebas
relacionadas con la emisión de rayos X: dosis al paciente, control automático del haz, coincidencia técnica de la irradiación
con la programada en la consola, etc. Esta categoría cae fuera de los objetivos de este libro y, por tanto, no se va a
desarrollar aquí.
PA R T E 5
Aspectos físicos de los tratamientos
radioterápicos. Planificación dosimétrica
Capítulo 17: Conceptos y herramientas de la dosimetría clínica en teleterapia
Capítulo 18: Planificación de tratamientos de teleterapia
Capítulo 19: Técnicas avanzadas de planificación
Capítulo 20: Control de calidad en las planificaciones de los tratamientos radioterápicos
C AP Í T U L O 1 7
Conceptos y herramientas de la dosimetría
clínica en teleterapia
Jaime Martínez Ortega

Luis Núñez Martín

ÍNDICE
1. Introducción 216
2. De la prescripción al informe dosimétrico 217
2.1. Los registros 217
2.2. La organización de la planificación dosimétrica 217
2.3. La planificación dosimétrica 218
3. Denominación de los volúmenes según ICRU 218
4. Curvas de isodosis 220
4.1. Isodosis 220
4.2. Distribución relativa y absoluta. Punto de
normalización 221
5. Histograma dosis-volumen 222
5.1. Concepto de histograma 222
5.2. Histograma dosis-volumen diferencial 222
5.3. Histograma dosis-volumen acumulativo 222
6. Prescripción de la dosis 223
6.1. El punto ICRU y la isodosis de prescripción 224
6.2. Prescripción a volumen. Importancia 224
7. Algoritmos de cálculo 224
7.1. Algoritmos basados en correcciones 225
7.2. Algoritmos basados en modelos 225
7.3. Método de Monte Carlo 226
8. Control de calidad del planificador 226
9. Resumen 227
Bibliografía 227
1. Introducción
En este capítulo se estudiará el proceso de la dosimetría clínica. En el capítulo 10 se ha
visto la dosimetría física, que comprende los trabajos relacionados con la determinación
de la dosis absorbida mediante un detector en un medio físico como el agua. La
dosimetría clínica comprende los trabajos relacionados con la determinación, mediante
medida o cálculo, de la dosis absorbida en el paciente.
El conocimiento preciso de la dosis absorbida en el interior del paciente podría hacerse
introduciendo detectores de radiación en su interior, algo prácticamente imposible. Una
aproximación a esta solución es la denominada «dosimetría in vivo», la cual utiliza
detectores (semiconductores, termoluminiscencia, etc.) colocados superficialmente sobre
la piel del paciente o en cavidades anatómicas, que proporcionan unas señales que
pueden ser traducidas a la dosis absorbida en un determinado punto.
La realidad es que este procedimiento sólo está indicado como verificación o control de
calidad de otro que es el realmente utilizado, consistente en la estimación, por cálculo, de
la dosis absorbida y su distribución en el cuerpo del paciente, mediante potentes
ordenadores, denominados sistemas de planificación dosimétricos o «planificadores».
La radioterapia moderna no consiste únicamente en prescribir la dosis absorbida que
debe administrarse al tumor, sino también en cuantificar, por medida o cálculo, tanto lo
que realmente recibe el tumor, como lo que pueden recibir los tejidos sanos y órganos de
riesgo que ha de ser lo mínimo posible.
El conocimiento preciso, y previo a la administración del tratamiento, de la dosis y su
distribución en el cuerpo del paciente permite tomar las decisiones clínicas adecuadas,
acordes con la distribución espacial de la dosis.
La descripción y el estudio de los procedimientos y las herramientas utilizados para
realizar esta tarea es el objeto del presente capítulo.
2. De la prescripción al informe dosimétrico
La actividad radioterápica se estructura en una serie de procesos entrelazados, en los que
están involucrados diferentes profesionales, tal como se describe con detalle en el
capítulo 9. De ellos, los comprendidos entre la prescripción y el inicio del tratamiento
constituyen el núcleo de la actividad del servicio de radiofísica y protección radiológica, y
es donde radica su responsabilidad máxima. Este conjunto de procesos se denomina
«planificación dosimétrica» o, de manera abreviada, «planificación» (planning), según lo
considera la International Commission on Radiation Units and Measurements (ICRU) en
su último informe sobre el tema (Report 83; http://www.icru.org/link-index), titulado
Prescribing, Recording and Reporting Photon Beam IMRT. Hay que decir que estos informes
ICRU constituyen una guía de uso muy importante en lo que se refiere a establecer
recomendaciones de ámbito internacional en diferentes materias, entre las que se
encuentra el uso terapéutico de las radiaciones ionizantes.
En este capítulo se tratará el proceso referido al cálculo dosimétrico y sus herramientas
de ayuda para la evaluación y la decisión a tomar y registrar como un informe
dosimétrico.

2.1. Los registros


La prescripción y el informe dosimétrico suponen dos pilares de los tratamientos
radioterápicos, por cuanto con estos documentos se ha de definir y registrar de forma
inequívoca, por un lado, lo que se quiere hacer para conseguir unos objetivos
terapéuticos, y por otro, lo que se puede hacer para lograrlos.
Da idea de la importancia de los registros a realizar en el curso de la planificación el
hecho de que ICRU ha dedicado sucesivos informes (50, 62 y 83) a actualizar sus
recomendaciones sobre el tema.
Los registros de la prescripción y el informe dosimétrico son indispensables, por
razones administrativas y científicas. Por razones administrativas, en cuanto es de
obligado cumplimiento incluirlos en la historia clínica de los pacientes, según se
establece en el ordenamiento jurídico español, Art. 14 y 15 de la Ley 41/2002, básica
reguladora de la autonomía del paciente y de derechos y obligaciones en materia de
información y documentación clínica (http://www.boe.es/buscar/act.php?id=BOE-A-2002-
22188). Así mismo, la inclusión en la historia clínica viene a dar cumplimiento de la
citada Ley 41/2002, que en su Art. 1.6 establece que «Todo profesional que interviene en la
actividad asistencial está obligado no sólo a la correcta prestación de sus técnicas, sino al
cumplimiento de los deberes de información y de documentación clínica, y al respeto de
las decisiones adoptadas libre y voluntariamente por el paciente».
Las razones científicas son también varias. Una primera es porque la prescripción
supone la concreción del plan de tratamiento: es un proceso de escritura, pero también
es un proceso mental en que el especialista médico debe concretar y establecer, de
acuerdo a sus conocimientos, lo que entiende que debe hacerse, lo cual deberá ser
contrastado con lo que realmente resulte en el cálculo dosimétrico y se exprese en el
informe de este. Otra razón es porque el informe dosimétrico es la constatación de lo que
se puede hacer y se va a ejecutar en las unidades de tratamiento. Este registro, junto con
los de todos los pacientes tratados, constituye la base del conocimiento por cuanto es
donde se contienen los datos objetivos de los tratamientos administrados, que
permitirán establecer la relación causa (dosis)-efecto radiobiológico, absolutamente
necesaria para poder avanzar en el conocimiento científico de los efectos de la
radioterapia.
Entre ambos procesos, prescripción e informe dosimétrico, se produce «la cocina» del
tratamiento: el cálculo dosimétrico y el debate optimizador entre los especialistas
médicos y físicos sobre los resultados logrados, lo cual producirá por consenso el
tratamiento más adecuado.

2.2. La organización de la planificación dosimétrica


La interrelación de los procesos y los procedimientos exige una organización que
garantice su mejor desarrollo para lograr la mayor eficiencia del tratamiento, con las
máximas celeridad, exactitud y seguridad.
Así pues, es necesario establecer con claridad las condiciones de la transición entre los
procesos, de manera que puedan llegar a realizarse sobre plataformas informáticas de un
modo automático o casi automático.
Un ejemplo de ello se encuentra en el proceso de aceptación de las planificaciones
dosimétricas, en el que una vez encontrada una solución ajustada a la prescripción, la
aceptación de esta puede requerir o no un debate presencial de los profesionales,
dependiendo de si existen problemas en alcanzar una clara satisfacción de los
requerimientos de la prescripción. La transición al siguiente proceso debería estar
debidamente protocolizada, de forma que pudiera realizarse telemáticamente la
aceptación, una vez aprobada y refrendada su validez.
Alcanzar este estado de organización requiere un estudio detallado de los procesos y
procedimientos, en el cual deben participar todos los profesionales que participan en la
misma, así como la disponibilidad de los recursos instrumentales adecuados.
Un desajuste organizativo no es infrecuente. Uno de los problemas más importantes
que actualmente pueden encontrarse son los debidos a los desajustes en la integración
entre los sistemas de información hospitalarios, las redes telemáticas departamentales y
los sistemas computarizados de planificación dosimétrica, que conviven en los centros y
hospitales, tal como se expuso en el capítulo 8 y que brevemente se mencionan a
continuación con el objeto de entender mejor dicho problema de integración, originado
por los distintos fines para los que cada uno de ellos está concebidos.
En cuanto a los sistemas de información hospitalarios (HIS, Hospital Information
System), son productos dedicados a gestionar la comunicación, registrar y almacenar
todos los datos resultados de los procesos de diagnóstico y tratamiento en los que se
encuentran involucrados los pacientes y los profesionales que los atienden, con un
alcance intrahospitalario e interhospitalario. Es decir, mueven y almacenan la
información fundamentalmente de las historias clínicas de los pacientes (entendida esta
en el sentido más general).
También son de ámbito hospitalario los sistemas de información radiológicos (RIS,
Radiological Information System), que manejan y almacenan toda la información relativa a
los estudios de imagen, sea cual sea su modalidad.
Las redes departamentales radioterápicas están orientadas al manejo de la información
producida dentro de las instalaciones de radioterapia, y gestionan y relacionan los
sistemas y máquinas que conviven dentro de ellas: simuladores, aceleradores, sistemas
de cálculo dosimétrico y sistemas dosimétricos de control y verificación de los cálculos
dosimétricos y de las unidades de tratamiento.
Los sistemas de planificación dosimétricos son ordenadores dirigidos al cálculo de las
distribuciones de dosis y están conectados con las redes departamentales radioterápicas,
comunicando y transmitiendo la información de las planificaciones dosimétricas a las
unidades de tratamiento.
Como se puede observar y entender, estos diferentes sistemas deben estar bien
integrados, de manera que permitan un desarrollo fluido de la actividad, algo que no
siempre se consigue debido a la muy diferente funcionalidad para la que están
destinados. Los desarrolladores de estos sistemas, pese a la gran flexibilidad que los
sistemas informáticos ofrecen hoy en día, no acaban de resolver los problemas mutuos
de compatibilidad.

2.3. La planificación dosimétrica


Es la tarea en que se define de forma concreta cómo se va a tratar al paciente. Es un
trabajo de diseño y cálculo que constituye la técnica a aplicar en el paciente.
El trabajo de diseño consiste en definir el tipo de radiación, la energía, la angulación, la
forma y la intensidad de los haces de radiación que han de incidir sobre la zona objetivo
del tratamiento para irradiarlo adecuadamente, protegiendo a la vez los tejidos sanos y
los órganos de riesgo.
El cálculo de la planificación dosimétrica se dirige, tal como ya se ha expresado en los
capítulos 2 y 9, a calcular la deposición de la energía (dosis absorbida) resultado de la
interacción de la radiación con la materia.
El cálculo se realiza a partir de las características de absorción de un medio material
como es el cuerpo humano (proporcionadas por tomografía con RX) y de los datos de las
máquinas de tratamiento (adquiridos mediante medidas dosimétricas). Este cálculo se
lleva a cabo mediante unos algoritmos que modelizan los procesos físicos que tienen
lugar en dicha interacción.
El trabajo de planificación es en sí una simulación de lo que va a suceder en el paciente
cuando vaya a ser tratado. Como consecuencia de este cálculo se obtiene un tratamiento
«virtual» de acuerdo con una configuración, también «virtual», de la máquina de
tratamiento constituida por un conjunto de variables de la misma (energías, geometrías,
intensidades de haces, etc.), que tendrán que ser transmitidas a la máquina real para
ejecutar de forma real el tratamiento.
El procedimiento de la planificación consiste en la repetición de un bucle de prueba-
error-optimización, donde mediante el ensayo de diferentes configuraciones de haces,
geometrías y técnicas de conformación y modulación de la intensidad se van
consiguiendo diferentes grados de cobertura del tumor con la dosis prescrita y de
protección de las zonas sanas, buscando el mejor cumplimiento de la prescripción
dosimétrica.
La instrumentación utilizada para la planificación consiste en un sistema
computarizado de cálculo de altas prestaciones (y coste), que permite realizar con gran
celeridad los sucesivos intentos optimizadores y evaluar sus resultados por medio de las
herramientas de análisis y visualización de que está dotado el sistema.
Al ser el planificador una herramienta computacional, que simula la deposición de la
energía, esta simulación puede ser inexacta al trasladarla a la realidad, por lo que hay que
habilitar unos procedimientos de control adicionales que permitan detectar y acotar
dicha inexactitud.
Las imprecisiones intrínsecas al sistema de planificación se tratan más adelante en el
apartado «8 Control de calidad del planificador»; las que se originan como consecuencia
del traslado de los cálculos y parámetros de tratamiento al acelerador, se tratarán en el
capítulo 20.
3. Denominación de los volúmenes según ICRU
Uno de los problemas más importantes del proceso de planificación es la definición de
los volúmenes irradiados como consecuencia de la impartición del tratamiento.
Este tema se aborda en profundidad en los informes o reports ICRU citados en el
apartado «2.1 Los registros». Según estos informes, lo primero que hay que definir en un
tratamiento de radioterapia es su finalidad u objetivo, estableciendo, por ejemplo, si el
tratamiento tiene intención radical o paliativa. Una vez establecida esta cuestión, es
de extrema importancia definir con precisión la cantidad de volumen a irradiar con una
determinada dosis, así como la dosis límite máxima que puede recibir cierta cantidad de
volumen de las regiones sanas y de los órganos de riesgo como consecuencia de la
irradiación del tumor.
En los citados informes ICRU se establecen las siguientes definiciones (fig. 17-1):
• GTV (gross target volume): volumen de tumor macroscópico de extensión palpable o
visible. No siempre está presente, pues puede haber sido erradicado previamente
mediante cirugía o quimioterapia.
• CTV (clinical target volume): volumen blanco clínico. Es el volumen que contiene al GTV,
al cual se le da un margen que incluya las zonas de posible enfermedad microscópica.
Este volumen incluye la incertidumbre clínica, ya que hay cierta probabilidad de que la
enfermedad se haya extendido a estas zonas. Este proceder es el mismo que el del
cirujano, que siempre que sea posible no sólo extirpa el tumor sino también la zona
periférica bajo sospecha de diseminación tumoral. El oncólogo radioterápico, de la
misma forma, incluye estas zonas de posible enfermedad.
• IM (internal margin): margen interno. Es el margen que hay que añadir al CTV para
incluir las variaciones de posición, tamaño o forma debidas a factores fisiológicos, tales
como la respiración, el latido cardiaco o el llenado de la vejiga.
• ITV (internal target volume): volumen blanco interno. Es el volumen resultante de
añadir el IM al CTV, es decir, ITV = CTV + IM.
• SM (set-up margin): margen de posicionamiento. Es el margen que se añade al ITV como
consecuencia de la incertidumbre geométrica de posicionam