Está en la página 1de 26

qwertyuiopasdfghjklzxcvbnmqwerty

uiopasdfghjklzxcvbnmqwertyuiopasd
fghjklzxcvbnmqwertyuiopasdfghjklzx
cvbnmqwertyuiopasdfghjklzxcvbnmq
A.P.A.T.I
wertyuiopasdfghjklzxcvbnmqwertyui
<Adquisició n, Procesamiento,
Almacenamiento y Transmisió n de
opasdfghjklzxcvbnmqwertyuiopasdfg
Imá genes Médicas>

hjklzxcvbnmqwertyuiopasdfghjklzxc
14/04/2023

T.R Segatori, Antonella

vbnmqwertyuiopasdfghjklzxcvbnmq
wertyuiopasdfghjklzxcvbnmqwertyui
opasdfghjklzxcvbnmqwertyuiopasdfg
hjklzxcvbnmqwertyuiopasdfghjklzxc
vbnmqwertyuiopasdfghjklzxcvbnmq
wertyuiopasdfghjklzxcvbnmqwertyui
opasdfghjklzxcvbnmqwertyuiopasdfg
hjklzxcvbnmrtyuiopasdfghjklzxcvbn
mqwertyuiopasdfghjklzxcvbnmqwert
yuiopasdfghjklzxcvbnmqwertyuiopas
UNIDAD I: ESTRUCTURA DE LA IMAGEN DIGITAL
UTN-ISTM- Lic. En Diagnóstico por Imágenes

¿Qué es la IMAGEN?
La imagen es una representación bidimensional de una “escena”. La escena es un
recorte, un pedazo del mundo que nos rodea, por lo tanto es tridimensional (alto,
ancho y profundidad) de estas tres dimensiones, la profundidad no es una información
presente en las imágenes, si bien por diversos mecanismos (algunos conocidos y otros
no tanto) podemos interpretarla, no es información objetiva ni
cuantificable.
En la imagen tenemos información directa y sencilla sobre la ubicación a lo alto y
ancho de los objetos en la escena, no sobre si están cerca o lejos (profundidad).
Además de la ubicación de los objetos en la escena, en una imagen podemos
reconocer formas y tamaños, ¿serán siempre los reales?, ¿qué tan parecido nuestra
percepción de formas, colores, tamaños, ubicación, etc., serán los objetos en la
realidad?
Los seres humanos vemos imágenes en virtud de la capacidad de nuestro sistema de la
visión de detectar la luz reflejada por los objetos.
Las imágenes no son otra cosa que una representación de la realidad, formada por una
sucesión de diversas intensidades de luz, irradiada desde un soporte (papel, película,
monitor) y percibidas como brillos por nuestro sistema de la visión.
Para entender el complejo concepto de la imagen, la analizaremos desde dos
perspectivas:
􀂃 Teoría física de la imagen
􀂃 Teoría de la percepción de la imagen
Desde la teoría física podremos comprender el fenómeno de producción de las
imágenes centrando nuestro estudio en la imagen como objeto, con sus características
concretas y cuantificables, por otro lado no podemos dejar de comprender como
funciona al menos muy básicamente el sistema de la visión, que en definitiva es con
nuestro sistema visual que terminaremos obteniendo la información desde las
imágenes, para el diagnóstico.

El Proceso Visual
Todo el mundo da por hecho que somos capaces de ver, pero ¿cómo tiene lugar este
fenómeno? Si queremos ver a una persona que está delante de nosotros se genera un
Proceso Perceptivo que consta de varias fases y que necesitará indefectiblemente la
presencia de luz en la escena, para que el sistema visual humano se ponga en acción:

2
T.R. Segatori, Antonella.
UTN-ISTM- Lic. En Diagnóstico por Imágenes

1.- La luz alcanza a la persona y es reflejada, nuestros ojos capturan esta luz reflejada.
2.- En la retina de nuestros ojos se forma una imagen muy borrosa, invertida y de
menor tamaño.
3.- Se generan transformaciones en los receptores de la retina.
4.- Se transmiten impulsos a través del sistema nervioso en dirección al cerebro.
5.- Los impulsos eléctricos alcanzan al cerebro y son procesados por éste
6.- Percibimos, nos representamos, visualizamos la imagen de la persona.

¿Cómo Funciona el Ojo?


Después de miles de años de estudios sobre el sistema de la visión humana, tenemos
una única certeza; es de una tremenda complejidad.
La percepción visual es parte de la relación entre el hombre y el mundo que lo rodea.
Si bien disponemos de una importante cantidad de información producida por
observaciones empíricas, experimentos y teorías. Debemos reconocer que tenemos
más preguntas que respuestas.
Con la intención de facilitar su estudio vamos a entender la percepción visual como un
sistema. El sistema visual diremos entonces esta compuesto por tres subsistemas: El
de Captura (o adquisición) de señales, el de Reconocimiento de señales (o
procesamiento) y el de Interpretación de señales (o representación)
El subsistema de Captura tal vez sea el más conocido y sobre el que existen menos
discusiones de cómo funciona, esta compuesto esencialmente por el ojo y se explica
en buena medida desde la geometría de la luz: La óptica.

Estructura del ojo humano

El ojo es casi esférico con un diámetro medio de aproximadamente 20mm. Está


rodeado por 3 membranas, a cornea y la esclerótica cubren hacia afuera y hacia
adentro la coroides y la retina.
La cornea es un tejido transparente y resistente que cubre la porción anterior del ojo.
En prolongación de la cornea, la esclerótica es una membrana opaca que encierra el
resto del globo ocular. La coroides esta inmediatamente por debajo de la esclerótica y
es la principal fuente de nutrición del ojo. Está fuertemente pigmentada para impedir
la entrada de luz exterior. El extremo anterior de la coroides esta dividida en cuerpo
ciliar y diafragma o iris. El iris se abre o cierra para controlar la cantidad de luz que
entra en el ojo. La abertura central del iris (pupila) varía entre 2mm y 8mm de
diámetro. La parte anterior del iris contiene el pigmento visible del ojo mientras que la
posterior es negra. El cristalino, es transparente y entre un 60% y 70% es agua. Está
coloreado por una pigmentación amarillenta que aumenta con la edad, absorbe
alrededor del 8% del espectro luminoso.
La membrana mas interna es la retina, y cubre la pared posterior.

3
T.R. Segatori, Antonella.
UTN-ISTM- Lic. En Diagnóstico por Imágenes

Cuando el ojo esta correctamente enfocado la luz incidente proyecta una imagen
(bastante borrosa) en la retina. La visión de los objetos es posible a causa de una
distribución de receptores de luz repartidos por la superficie retiniana.
Existen 2 clases de receptores: los conos y los bastones. Los conos son
aproximadamente 6.106, localizados en su mayoría en la fóvea, son muy sensibles al
color, y gracias a los conos podemos discernir detalles finos en los objetos, esto se
debe a que cada cono se encuentra conectado a su propia terminación nerviosa.
La visión mediante los conos se denomina fotópica o visión de luz brillante.
El número de bastones es mucho mayor, entre 75.106 y 150.106. Los bastones no
están tan concentrados en la fóvea, y además comparten entre varios una misma
terminación nerviosa, lo que hace que la visión mediante los bastones no permita
discernir tanto detalle.
Los bastones sirven para dar una visión general del campo de visión, no están
implicados en la visión de color y son sensibles a niveles bajo de iluminación. Esta
visión se denomina escotópica o nocturna.
Según las teorías modernas se producen 3 tipos de transformaciones:
􀂾 Transformaciones ópticas
􀂾 Transformaciones químicas
􀂾 Transformaciones nerviosas

Transformaciones ópticas
La luz reflejada por los objetos es capturada por los ojos por una pequeña
"ventana" (la Córnea) que permite el ingreso de luz (como sí fuera un orificio en la
cámara oscura) La entrada de luz es regulada por acción del iris y la pupila (de la misma
manera que lo puede hacer el diafragma de una cámara fotográfica)
La luz que ha atravesado la pupila se encontrará con el cristalino, que resulta ser (en
termino ópticos) una lente biconvexa de convergencia variable. Es entonces el sistema
Cornea-pupila-cristalino un sistema óptico.

Transformaciones químicas
La proyección de la imagen retiniana sucede sobre la retina que se encuentra tapizada
por gran cantidad de receptores de luz. (Bastones y conos)
Los bastones y los conos contienen moléculas de pigmentos que contienen la
rodopsina que absorbe fotones luz y se descompone por reacción química en otras 2
sustancias.
Dicho de otro modo: la retina es un gigante laboratorio químico.
Transformaciones nerviosas
Cada receptor de la retina se enlaza con una célula nerviosa por una sinapsis y cada
una de estas células esta a su vez por otra sinapsis enlazada con las células que
constituyen el nervio óptico.

4
T.R. Segatori, Antonella.
UTN-ISTM- Lic. En Diagnóstico por Imágenes

El nervio óptico sale del ojo para terminar en el cuerpo geniculado del que salen
nuevas conexiones nerviosas que llegan al córtex estriado. Podríamos esquematizar,
diciendo que el sistema visual es una red muy compleja y que la información (luz) que
es tratada inicialmente de manera óptica, lo es luego de manera química, para finalizar
en la 3º etapa con un tratamiento nervioso (¿señales eléctricas?)

Poco conocido y sobre el cual no podemos decir mucho más que: no hay
correspondencia punto a punto y que el sistema visual no se queda en copiar y
codificar señales, sino que en cada etapa realiza diversos tratamientos sobre estas
señales y que lo esencial de lo que llamamos percepción visual tiene un tratamiento
muy complejo y que sucede en buena medida fuera del ojo, en el cerebro.
Como ya sabemos lo que el ojo captura es luz, y luego de un tratamiento óptico esta
luz forma una tenue imagen invertida sobre la retina.
La retina tapizada de fotorreceptores (conos y bastones) iniciara el tratamiento
químico y luego nervioso. Pero en definitiva la señal recibida es luz tendremos que
investigar entonces como se percibe la luminosidad. Deberíamos preguntarnos que
relación tiene esta intensidad de luz con la percepción de luminosidad (sensación de
brillo) Notaremos que la existencia de esta relación hace posible en parte, nuestra
capacidad de ver.
Visión Fotópica
Es la más común, corresponde a todos los objetos que consideramos normalmente
iluminados por luz diurna. En este modo de visión -fotópica- se ponen en acción
principalmente los conos, que son los que tienen capacidad de discriminar los colores.
Los conos se encuentran mas densamente en la zona de la fóvea, además al intervenir
mayor cantidad de luz el ojo tiene su pupila mas cerrada, todas estas características
producen una visión mucho mas aguda.
Visión Escotópica
Es la visión nocturna, y participan principalmente los bastones es acromática y de muy
baja agudeza.
¿Que datos obtenemos de la luz, para configurar luego una
imagen?

La luz percibida es la señal de entrada a nuestro sistema de percepción visual, y la


tratamos como información en etapas sucesivas. Como toda información esta
codificada. Hablar de codificación de la información visual significa aceptar que
nuestro sistema visual es capaz de localizar e interpretar ciertas regularidades en los
fenómenos luminosos que estructuran un “lenguaje” de “signos” y “señales”.
En lo esencial son cuatro las regularidades presentes en la luz a tener en cuenta:
1. Intensidad
2. Longitud de onda
3. Distribución del tiempo

5
T.R. Segatori, Antonella.
UTN-ISTM- Lic. En Diagnóstico por Imágenes

4. Distribución del espacio

1- Sobre la Intensidad es sobre lo que venimos hablando, el ojo reacciona a los flujos
luminosos, cuando el flujo aumenta es mayor el número de células retinianas
afectadas y se producen en mayor número las reacciones de descomposición de la
rodopsina y la señal nerviosa resulta mas intensa.
2- La longitud de onda provoca la sensación de color. Contrariamente a nuestra
percepción espontánea el color “no está en los objetos” sino en nuestra percepción.
Todos sabemos que la luz blanca no es otra cosa que la “mezcla” de todas las
longitudes de onda pertenecientes al espectro visible, lo que resulta evidente cuando
la descomponemos con un prisma.
La luz que nos llega de los objetos es la que ellos mismos reflejan. Las superficies
absorben ciertas longitudes de ondas y reflejan otras. Las superficies que absorben
igualmente todas las longitudes de onda parecen grises (tirando a blanco si la reflexión
es alta y a negro si es baja).
3- Distribución en el tiempo, la visión es principalmente un sentido espacial, de todos
modos no se pueden obviar los factores temporales que la afectan de la siguiente
manera:
a) la mayor parte de los estímulos visuales varían en su duración (por lo tanto tienen
una dimensión temporal).
b) Nuestros ojos están en movimiento permanente haciendo variar la información
recibida por el cerebro en fracciones muy pequeñas de tiempo.
c) La percepción misma es un proceso no instantáneo. Las operaciones (ópticas -
químicas - nerviosas) y su tratamiento ocurren en el tiempo por corto que este resulte
(los receptores retinianos en menos de una milésima de segundo y pasan entre 50 y
150 milésimas mas para que la estimulación del receptor llegue al córtex cerebral)
4 - Distribución de los espacios, todos conocemos (al menos confusamente) que
nuestro sistema visual está equipado para distinguir luminosidad y color, pero menos
difundidas están las capacidades para percibir los límites espaciales de los objetos, o
sea los” bordes”. La noción de “borde visual” designa la frontera entre dos superficies
de diferente luminancia.
Sin profundizar sobre este aspecto diremos que el sistema de la visión esta equipado
para identificar bordes a partir de diferentes “campos retinianos” (conjunto de
receptores asociados) y cada uno de estos campos se especializa en identificar, líneas,
ranuras, puntos, ángulos, direcciones, etc.
De esta manera y con complejas combinaciones nuestro sistema visual esta equipado
con instrumentos capaces de reconocer un borde visual y su orientación, una línea,
una ranura, un ángulo, un segmento; que vendrían a conformar las unidades
elementales de nuestra percepción de objetos y espacio.

6
T.R. Segatori, Antonella.
UTN-ISTM- Lic. En Diagnóstico por Imágenes

Límites de percepción del ojo humano


El ojo tiene un límite para identificar como separados dos puntos que se encuentren
muy próximos.

Hay que recordar que la materia está formada por moléculas y átomos separados,
pero lo que nos muestra el ojo al mirar la materia es un todo continuo. El poder de
resolución se refiere a la capacidad para resolver o distinguir dos objetos que están
muy juntos.

Una película cinematográfica negativa de 35mm puede discernir de 7 a 8 mil puntos


diferentes de izquierda a derecha en el área sensible del total fotosensible del
fotograma. Hay scanners que disciernen seis mil puntos (6k), otro, más común 4 k,
mientras que la gran mayoría discierne 2000 puntos (2k). Un CCD de las cámaras de
High Definition se acercan a los 2k, pero en el caso de los ojos, esto no puede ser
medido de esta forma (por miles de puntos) sino por fracciones de grado.

Cada ojo (sano, joven, en condiciones normales, con iluminación suficiente, pero
moderada) es capaz de definir objetos separados por 1 minuto de grado (1° = 60
minutos o 1/60 de grado). Con lo cual, para medir la calidad visual lo que se mantiene
constante es el ángulo, no el tamaño del objeto.

Los rayos que entren con un ángulo menor a 1 minuto no los veremos como
diferenciados, con lo que es precisamente este ángulo el que define la agudeza visual.
Obviamente este ángulo abarca más distancia cuanto más lejos estén los objetos
observados del ojo. En otras palabras, el detalle más pequeño que podemos percibir
tiene que ser más grande cuanto más lejos se encuentre.

A modo de ejemplo, para poder relacionar el poder separador del ojo humano con los
parámetros de resolución de una imagen digital, consideremos una pantalla de 65
pulgadas de diagonal con definición UHD (3,840 x 2,160 pixeles).Un ojo normal no
llegará a distinguir un pixel separado del resto a más de 1,5 m de distancia.

Quedan detalles como los de la profundidad de color que captan nuestros ojos.

En la retina existen tres tipos de células, llamadas “conos”, sensibles al rojo, verde y
azul respectivamente. Cada uno de estos tipos de conos puede distinguir hasta 100
tonalidades de su color correspondiente y el cerebro puede combinarlos, distinguiendo
así, alrededor de 1.000.000 de colores.

Con respecto a las imágenes en escala de grises, en condiciones adecuadas de


iluminación, el ojo humano promedio distingue más de 700 niveles de gris entre el
blanco y el negro.

7
T.R. Segatori, Antonella.
UTN-ISTM- Lic. En Diagnóstico por Imágenes

El contraste: relación entre luminosidad y bordes


Nuestro sistema visual esta en realidad equipado para detectar mejor los cambios de
luminancia que los valores absolutos de la misma. La sensación de luminosidad (brillo)
de una superficie está casi totalmente determinada por su relación con el entorno y es
principalmente función de su fondo.
Por tanto nuestro sistema visual es capaz de conjugar percepción de la luminosidad y
bordes visuales.
En definitiva, si podemos distinguir formas en una imagen es por que nuestro sistema
visual percibe los diferentes valores de luminosidad, pero que lo podamos hacer con
mayor o menor capacidad de discriminación depende de la diferencia entre el fondo y
el borde. Sin importar tanto el valor de luminosidad en términos absoluto, lo más
importante termina siendo entonces la diferencia de luminosidades entre dos zonas
limítrofes, ha esta diferencia le llamamos CONTRASTE simultaneo, y sin contraste no
veríamos adecuadamente las imágenes, por que no podríamos distinguir los bordes.
La imagen es entonces una percepción, que construimos a partir de nuestro sistema
visual y con importante participación de nuestro cerebro y no solamente de nuestros
ojos.
Nuestro cerebro es el que ve, en definitiva (influenciado entre otras cosas, por nuestra
experiencia, nuestros conocimientos, estados de ánimos, proyectos de búsqueda, etc.)
para ello se vale de un soporte que es la imagen como objeto, y dependiendo de la
características de este objeto nuestra percepción será más o menos aguda.
Cuando obtenemos (producimos) una imagen tendremos un objeto (soporte de
imagen) con características que serán determinantes en la posibilidad de que nuestro
sistema visual procese correctamente la información sobre la escena.
Para controlar entonces estas características debemos empezar por conocer la
estructura de la imagen como objeto, como esta construida, cuales son las unidades
mínimas que definen las características de este objeto que llamamos radiografía,
fotografía, tomografía.
Estructura de la Imagen
Al analizar la estructura de la imagen, estamos focalizando en el estudio de la imagen
como objeto, nos ocupamos de las características que se explican desde la teoría física
y no desde ya de la percepción. Las características físicas de la imagen son
independientes del observador, pero está claro que influirán en su desempeño.
Si pusiéramos un microscopio sobre una radiografía veríamos que los bordes están
formados en definitiva por unos pequeños “puntos”, también podemos notar que no
todas las regiones tienen el mismo tono de gris o color.

8
T.R. Segatori, Antonella.
UTN-ISTM- Lic. En Diagnóstico por Imágenes

Básicamente y simplificando mucho la explicación podríamos decir que las líneas y


formas que distinguimos sobre las imágenes son producto de muchísimos “puntos”,
ubicados en distintos lugares de un plano bidimensional (ancho y largo de las películas
radiográficas) que además según la cantidad de “puntos” presentes por unidad de
superficie, se percibirá de mayor o menor brillo, más negro o más blanco nos parecerá
cuando mayor o menor resulte la Densidad Óptica sobre la imagen.
En definitiva estos “puntos” tendrán dos variables que definen las características
básicas de la imagen: Ubicación espacial y Densidad óptica. (¿Cuántas ubicaciones
pueden tener estos puntos dentro del plano de la imagen? ¿Cuántos tonos de gris
podemos encontrar en una imagen?)
La imagen analógica (fotográfica) esta construida a partir de una infinita cantidad de
“puntos”, (átomos de plata metálica) de una infinita cantidad de tonos. Es
absolutamente imposible establecer sobre una radiografía la cantidad de tonos
presentes entre por ejemplo la zona mas clara y la más oscura de la imagen.

Estructura de la Imagen Digital


La información analógica como la película radiográfica se presenta de modo continuo,
en cambio la digital es discreta y podemos separar exactamente los diferentes valores
de luminancia.
Entre dos valores de brillos diferentes entre si, para el caso analógico tendremos
infinitos valores intermedios, en el caso digital podremos establecer un numero finito
de valores de luminancia presente entre ambos.
Lo mismo sucede para la ubicación de cada “punto”, decíamos que una imagen en
definitiva, representa un mapa de distintas intensidades de luz; cuando hablamos de
imágenes digitales este mapa estará conformado por una sucesión de pixeles de (f)
intensidad de luz (brillo) con una ubicación establecida para cada uno en los dos ejes
cartesianos (x, y) O sea una grilla de pequeños cuadrados que denominamos pixel
(elementos de la imagen) cada uno de los cuales tendrá un valor establecido de tono
de gris (brillo). A estas imágenes digitales las llamamos BITMAP (mapa de bit).
Por lo tanto el resultado final sobre la imagen dependerá de las características del
pixel. (Tamaño, Brillo y Ubicación).

Resolución
Hay dos tipos de resolución que debemos tomar en cuenta, la Resolución Espacial y la
Resolución de Contraste o profundidad de color.
De esta manera entenderemos claramente como se forman las imágenes BITMAP y
cuales son los requerimientos para obtener imágenes de calidad diagnóstica.
Como las imágenes digitales son dependientes de los pixeles; el tamaño de los pixeles
Que la conforman tendrán relación con la imagen.

9
T.R. Segatori, Antonella.
UTN-ISTM- Lic. En Diagnóstico por Imágenes

Alta resolución significa mayor cantidad de pixeles y de menor tamaño. Imágenes de


baja resolución estarán formadas por menos pixeles más grandes.
Se puede medir la Resolución Espacial en cantidad de pixeles por pulgada (pixeles per
inch) y su abreviación en ingles es: ppi.
En el caso de tecnología médica el tamaño del campo de exploración suele ser fijo y se
menciona la cantidad de pixel total, como matriz de n. m (ejemplo: 512 por 512 en TC)
En definitiva la resolución espacial dependerá siempre del tamaño del pixel, cuando
más pequeño mayor capacidad de discernir detalles en la imagen.

Resolución Espacial
Como decíamos la resolución espacial esta relacionada con el tamaño de los pixeles y
se puede medir en ppi.
Si una imagen tiene una resolución de 60 ppi, esto significa que contiene 3600 pixeles
en un cuadrado de una pulgada. (60 pixeles de ancho por 60 pixeles de largo = 3600)
Cuanta más alta sea la resolución, mas cantidad de pixeles y más pequeños serán los
que conforman la imagen.
Por ejemplo, una imagen de 3 x 3 pulgadas con una resolución de 60 ppi, tendrá
32.400 pixeles.
La misma imagen a una resolución de 300 ppi tendrá 810.000 pixeles (mucho más
pequeños) en el mismo espacio de 3 x 3 pulgadas.
Con resoluciones más altas obtenemos imágenes con mayor detalle.
Recordemos que el concepto de Resolución espacial es uno de los más importantes
para entender las imágenes diagnósticas, y que para medir dicha resolución se utiliza la
magnitud: pl/mm, en radiología y pl/cm en mamografía.
Si no recuerdas sobre el tema, te conviene ir a los apuntes anteriores de la Tecnicatura
y recordarlos, te dejo unas preguntas para que puedas explicar con tus propias
palabras este concepto.
¿Que es la Resolución espacial, en que se mide y para que sirve desde un punta de
vista práctico tener esta información?

Resolución de Contraste o Profundidad de Pixel


La resolución de bits o profundidad de pixel es la medición de la cantidad de bits de
información almacenada por cada pixel.
La resolución en bits determina cuantos tonos de gris (o colores) esta disponible para
cada pixel del archivo BITMAP.
A mayor profundidad de bits, mas cantidad de colores o tonos de grises disponibles y
mayor precisión en la representación del color de la imagen digital.
Por ejemplo, cada pixel con 1 bit de profundidad tiene dos valores posibles: blanco o
negro (on o off). Cada pixel con profundidad de 8 bits, tiene 28, o sea 256 valores
posibles y cada pixel con profundidad de 24 bits tendrá 224, o sea 16.700.000 de
colores posibles.

10
T.R. Segatori, Antonella.
UTN-ISTM- Lic. En Diagnóstico por Imágenes

A mayor cantidad de bits, mas tonos de gris o colores disponibles para representar a
cada pixel, aumentando lo que llamaremos resolución de contraste.
La Resolución de Contraste es otro concepto fundamental para entender las imágenes.
¿Qué entendemos por contraste de imagen? ¿Estará vinculado con el concepto de
contraste simultáneo analizado en percepción visual?

La imagen digital
Definició n
Si bien todos sabemos lo que es una imagen, en lo que sigue lo entenderemos como
un área sobre la cual se distribuye información lumínica, tanto en intensidad de brillo
como en color, perceptible por un ser humano o por un dispositivo tecnológico con
capacidad equivalente.

Esencialmente, el concepto de imagen tal como la entendemos hoy en día surge a


partir de la técnica de la fotografía, y aún antes a través del arte de la pintura, que
obtiene una reproducción de una escena real sobre un sustrato plano, proyectando así
información tridimensional sobre un área de dos dimensiones. Desde luego, este
procedimiento se logra a expensas de una pérdida de información por la dimensión
faltante.

Una imagen digital, o gráfico digital, es una representación bidimensional de una


imagen a partir de una matriz numérica, frecuentemente en binario (unos y ceros).

Los primeros avances en digitalización de imágenes se originan en el ámbito científico,


al desarrollar métodos de captura de imágenes, por ejemplo, las satelitales, y su
posterior análisis de manera numérica a través de sistemas de cómputo, por lo cual
algunos conceptos provienen de esta etapa. En estas primeras aplicaciones, el interés
en la imagen radica, no en aspectos artísticos, históricos o emocionales, sino en la
información de valor técnico o científico que es posible extraer de ella. Por ejemplo, al
tomar una imagen satelital de una determinada área del planeta, interesa reconocer y
medir los objetos, accidentes geográficos, etc., presentes en esa zona.

En cambio, cuando el uso de la imagen radica en cuestiones estéticas, no hay un


interés directo en la medida de los objetos presentes en ella sino en su poder
expresivo y en su facultad de recrear una situación o evento real.

En el primer caso, la digitalización estará orientada a captar la mayor información


posible que permita su posterior análisis; en el segundo caso, la digitalización se
definirá en base a la técnica empleada para su reproducción posterior.

Podemos separar a las imágenes digitales en dos categorías:

11
T.R. Segatori, Antonella.
UTN-ISTM- Lic. En Diagnóstico por Imágenes

- Las imágenes matriciales.


- Las imágenes vectoriales.
Las pertenecientes a la primera categoría, también conocidas como “mapas de bits”,
suelen ser las más utilizadas en informática.

La mayoría de los archivos de imágenes digitales están compuestos por una cabecera
que contiene atributos (dimensiones de la imagen, tipo de codificación, etc.), seguida
de los datos de la imagen en sí misma. La estructura de los atributos y de los datos de
la imagen es distinto en cada formato.

Además, los formatos actuales añaden a menudo una zona de metadatos, que
comprenden información adicional a la imagen, tales como fecha, hora y lugar donde
se adquirió, o, en el caso particular de las imágenes médicas, datos del paciente,
parámetros de adquisición, índices de exposición, etc.

Las imágenes digitales se pueden obtener de varias formas:

- Por medio de dispositivos de entrada de conversión analógica-digital


como los escáneres y las cámaras digitales.
- Directamente mediante programas informáticos editores de mapas de
bits y dibujo vectorial, como por ejemplo realizando dibujos con el ratón o
tableta digitalizadora gráfica incluyendo el lápiz óptico, o mediante un
programa de renderización 3D a mapa de bits.
Las imágenes digitales se pueden modificar mediante filtros, añadir o suprimir
elementos, modificar su tamaño, etc. y almacenarse en un dispositivo de grabación de
datos como por ejemplo un disco duro.

El proceso de digitalizació n
La computadora exige, para aceptar cualquier tipo de información que la misma este
en formato digital. Para digitalizar una imagen, se muestrea la misma en instantes
concretos que determinan la matriz discreta de muestreo, y cada muestra se cuantifica
utilizando un número finito de bits. Así, todos los bits obtenidos pueden ya procesarse
en forma aritmética.
La conversión de una imagen analógica en una imagen digital lleva implícitos dos
procesos denominados muestreo y cuantificación.

Para explicar estos procesos de la manera más sencilla posible, consideraremos una
imagen que consiste en un área rectangular plana donde se tiene una distribución de
luz variable, queriendo decir con esto que cualquier punto de ese rectángulo puede
tener una intensidad de luz independiente de los otros. Esta intensidad de luz cumple
(por ahora) dos condiciones:

- Sólo consideraremos variaciones de brillo de una luz blanca (lo que en la práctica se
denomina comúnmente una imagen en escala de gris).

12
T.R. Segatori, Antonella.
UTN-ISTM- Lic. En Diagnóstico por Imágenes

- Ese brillo varía desde un valor cero (que entenderemos por negro) hasta un valor
máximo conocido (que entenderemos por blanco).

Esta intensidad o brillo así distribuido será la magnitud continua que intentaremos
digitalizar.

Muestreo
Para empezar, consideremos una imagen plana monocromática rectangular, de la cual
conocemos inicialmente sus dimensiones lineales W (ancho) y H (alto). Debe quedar
claro desde ahora que estas dimensiones son longitudes, y por lo tanto se expresarán
en metros, milímetros, pulgadas, kilómetros, años-luz, etc.

¿Qué entenderemos por muestrear esta imagen?

Como la información de brillo se extiende en el espacio, tomaremos muestras de esa


magnitud a intervalos regulares. Como ocupa un área, repetiremos este proceso en
ambas direcciones, horizontal y vertical.

¿Cuál será ese intervalo? 


Sabemos que esto depende de consideraciones prácticas. En una imagen dependerá
de cómo varíe el brillo de una parte a otra y con qué rapidez.

Una imagen muy detallada requerirá un intervalo menor que otra que tenga grandes
zonas de brillo muy homogéneo. La imagen mostrada como ejemplo tiene zonas de

13
T.R. Segatori, Antonella.
UTN-ISTM- Lic. En Diagnóstico por Imágenes

mucho detalle; luego deberemos emplear un intervalo pequeño, en comparación con


sus dimensiones.

El muestreo se hará midiendo el valor del brillo en una serie de puntos horizontales y
verticales formando una retícula o trama. Para que el número de muestras tomadas,
por ejemplo, en la dimensión horizontal, abarque exactamente el ancho de la imagen,
supondremos que el intervalo se ha elegido apropiadamente. Supondremos también
que la misma verificación se ha hecho en la dimensión vertical. Para aclararlo, si la
imagen mide 40 cm en sentido horizontal, un intervalo entre muestras de 1 mm sería
apropiado, pues ello implicaría exactamente 400 muestras; en cambio, un intervalo de
1,5 mm no lo permite, ya que quedaría algo de imagen sin muestrear.

Llamaremos d al intervalo entre muestras, y NW al número de muestras en dirección


horizontal. La observación anterior nos dice que el ancho de la imagen dividido el
intervalo entre muestras nos dará el total de muestras horizontales, es
decir:NW = W / d 

Análogamente, en la otra dirección, si llamamos NH al número de muestras verticales,


debe ser: NH = H / d

En la imagen siguiente podemos ver, de manera esquemática, la distribución de las


muestras. El intervalo elegido se ha exagerado con fines ilustrativos.

El significado de tomar esos puntos como ubicación de las muestras es que debemos
asignar a cada uno de ellos un valor de brillo. Este valor sería aquél que un
instrumento de medición lumínica arrojara en cada punto, prescindiendo de su
entorno.

14
T.R. Segatori, Antonella.
UTN-ISTM- Lic. En Diagnóstico por Imágenes

El resultado de este procedimiento sería el que vemos a continuación, donde el “área


de influencia” de cada muestra es reemplazada por el valor medido en el centro de
aquélla.

Cada una de estas áreas o celdas, naturalmente, tendrán un ancho igual a la distancia
entre sus centros, es decir, serán cuadrados de lado d. (Se aprecia también que el
intervalo elegido es demasiado grande, pues se ha perdido el detalle al extremo tal
que parece imposible saber cuál era la imagen original).

Hemos obtenido así una representación formada por celdas, que ahora constituyen la
fracción más pequeña o elemental de la imagen de la cual se tiene información de
brillo. Por este motivo, se denomina también a cada celda “un elemento de imagen”,
conocido más comúnmente como pixel (que deriva de su denominación en inglés
picture element, elemento de imagen).

Resolució n de la imagen muestreada


Imaginemos que logramos capturar una vista en altura de un área extensa, digamos de
varios kilómetros cuadrados, para analizarla presencia de cursos de agua en la región.

Supongamos que pretendemos detectar arroyos de al menos dos metros de ancho


entre orillas. ¿Qué intervalos elegiremos?

15
T.R. Segatori, Antonella.
UTN-ISTM- Lic. En Diagnóstico por Imágenes

Si elegimos un intervalo mayor a dos metros entre muestras, corremos el riesgo que
uno de esos arroyos pase justo entre medio de dos muestras sucesivas, y por lo tanto
no aparezca en la imagen muestreada. Para que eso no ocurra, el intervalo no debe ser
mayor a esos dos metros.

Vemos así que, si la imagen muestreada debe permitir la detección de objetos de


tamaño L, el intervalo de muestreo d no deberá ser superior a L.

Esta capacidad de la imagen, para resolver la presencia de objetos de cierto tamaño,


se expresa a través de la siguiente definición:

(Primera acepción) Se denomina resolución de una imagen al tamaño del menor


objeto que dicha imagen permite detectar.

Si el intervalo de muestreo es d, se dice que la imagen tiene una resolución igual a d.

Históricamente este fue el primer significado del término resolución como capacidad


de resolver (es decir diferenciar, detectar) objetos en una imagen del primer tipo que
mencionamos, que provienen en general de las aplicaciones científicas. En nuestro
ejemplo, si el intervalo de muestreo es de 2 metros, diremos que la resolución de esa
imagen es de 2 metros. Obsérvese que en esta primera acepción la resolución es una
longitud, y por lo tanto se expresa mediante unidades de ese tipo.

En cambio, en las imágenes del segundo tipo (artísticas), el concepto que prevalece no
es el tamaño de los objetos que aparecen en ellas sino la técnica empleada al
reproducirlas. Aquí es necesario contar con muestras suficientemente cercanas entre
sí para que al disponerlas sobre el medio o superficies sobre la cual se reproducen las

16
T.R. Segatori, Antonella.
UTN-ISTM- Lic. En Diagnóstico por Imágenes

imágenes den a la vista una sensación de continuidad que oculte el resultado del
muestreo; cuando las muestras no son suficientes el muestreo se hace visible,
fenómeno conocido como pixelado.

En este caso es de mayor interés saber de cuántas muestras se dispone por cada


unidad de longitud de la superficie de reproducción.

Conociendo el intervalo entre muestras d podemos calcular cuántas muestras caben


en una unidad de longitud dada; por ejemplo, si el intervalo de muestreo es de 0,1 mm
significa que caben 10 muestras por cada milímetro.

En general, si d se expresa en una determinada unidad de longitud (milímetros en el


ejemplo), el número de muestras por cada una de esas unidades será 1/d, los que nos
permite establecer esta definición:

(Segunda acepción) Se denomina resolución de una imagen al número de muestras


empleadas por cada unidad de longitud.

En esta acepción, la resolución la expresaremos mediante el símbolo R.

Si el intervalo de muestreo es d, se dice que la imagen tiene una resolución R = 1/d.

Las unidades más comunes en las que se expresa la resolución son pixeles por
pulgada o ppi (pixels per inch) y pixeles por milímetro o ppm. De uso muy difundido
(aunque técnicamente erróneo) es la expresión puntos por pulgada o dpi (dots per
inch) y, aunque mucho menos difundido, su contraparte puntos por
milímetro o dpm (dots per millimeter), pues el término dot tiene que ver con puntos
de impresión y no con muestras. Una manera más correcta sería utilizar como
unidad muestras por pulgada o spi (samples per inch).

Como esta forma de entender la resolución es la más común en las artes gráficas,
obtendremos el número de muestras en cada dirección a partir de R en lugar
de d. Para ello basta observar que

NW = W / d = W • (1/d) = W • R,

es decir,

NW = W • R,

y análogamente en la otra dirección será:

NH = H • R.

Para que estas relaciones sean válidas, tanto W y H como R deberán estar expresadas
en unidades coherentes: por ejemplo, si W y H están expresadas en
milímetros, R deberá estarlo en muestras por milímetro.

17
T.R. Segatori, Antonella.
UTN-ISTM- Lic. En Diagnóstico por Imágenes

Llamaremos ahora N al número total de muestras tomadas en una imagen, que


resultará, naturalmente, igual al producto de las muestras horizontales y verticales, es
decir,

N = NW • NH.

Reemplazando por sus equivalentes tendremos

N = (W • R) • (H • R) = W • H • R • R,

que se puede expresar de manera más compacta como:

N = W • H • R2

Lo importante de esta relación es que aquí se encuentra sintetizado, en esencia, el


proceso de muestreo. Nos dice que si una de las dimensiones (W ó H) aumentara, por
ejemplo, al doble, el número total de muestras aumentará también al doble; pero si la
resolución R aumentara al doble, el número total de muestras aumentaría
al cuádruple. Esto es de interés, dado que este número decidirá más tarde el volumen
de información generado por esa imagen, e impone una elección cuidadosa de la
resolución a emplear.

Cuantificación
Una vez definida la cantidad y distribución de las muestras, resta determinar entre
cuántos niveles diferentes de brillo (tonos de gris), entre el valor mínimo (negro) y el
valor máximo (blanco), podremos optar para “rellenar” cada pixel.

A dicho conjunto de niveles diferentes de brillo lo denominaremos “niveles de


cuantificación”.

Cuando la digitalización de la imagen se realiza con fines artísticos será, en definitiva, la


apreciación humana la que dirá cuántos niveles son necesarios.

Ante todo, sabiendo que el objetivo final del proceso de digitalización es el


almacenamiento y manipulación de la información generada mediante sistemas
digitales, diremos que el número de niveles de cuantificación será elegido de manera
de estar expresado por un número entero de bits, ya que ésta es la unidad de
información que podemos almacenar y manipular mediante tales dispositivos. Luego,
elegiremos 2, 4, 8, 16, 32, 64, etc., niveles diferentes, ya que corresponden
respectivamente a 1, 2, 3, 4, 5, 6, etc., bits de información.

¿Cómo impacta la elección de un determinado número de niveles de cuantificación


en la apariencia visual de una imagen? Para tomar noción de esto, elegiremos una
parte de la imagen original, la muestrearemos utilizando un intervalo mucho menor
que el utilizado anteriormente (es decir, empleando una resolución mucho mayor) y

18
T.R. Segatori, Antonella.
UTN-ISTM- Lic. En Diagnóstico por Imágenes

mostraremos el resultado de cuantificar las muestras utilizando diferentes números de


niveles.

A continuación, se muestra el resultado de cuantificar el área seleccionada

2 4

8 16

32 64

19
T.R. Segatori, Antonella.
UTN-ISTM- Lic. En Diagnóstico por Imágenes

de la imagen utilizando 2, 4, 8, 16, 32 y 64 niveles.

A la primera imagen se la conoce como imagen binaria, mientras que al resto se las
denomina como imágenes en escala de grises, independientemente de la cantidad de
niveles de cuantificación utilizados.

Una vez elegida la cantidad de niveles, y por lo tanto una cierta cantidad de bits para
asignar un valor de brillo a cada pixel, podremos conocer cuánta información se genera
al digitalizar la imagen. Daremos entonces esta definición:

El número de bits elegido para cuantificar cada muestra de una imagen se denomina
profundidad de color, profundidad de bits o, también, resolución de color.

Expresaremos la profundidad de color mediante el símbolo Q.

Así, en el último ejemplo mostrado, donde se han elegido 64 niveles de cuantificación,


escribiremos Q = 6 bits.

Levantaremos ahora la restricción sobre el tipo de imagen (escala de grises) para


examinar la digitalización de una imagen color. Seguiremos aplicando los mismos
conceptos respecto al muestreo, pero deberemos cambiar lo que entendemos por
cuantificación en el caso en que la iluminación posea un color además de una cierta
intensidad o brillo.

Para nuestros fines definiremos brevemente un modelo de color como un mecanismo


de representación que sea válido para describir un color de manera cuantitativa. Nos
concentraremos en el más simple de ellos, el modelo de color aditivo, basado en la
forma en que el conjunto ojo-cerebro produce la sensación que llamamos color.

En este modelo, un color cualquiera se considera formado por una cierta mezcla de
otros tres colores fijos, llamados primarios, que por las características fisiológicas del
ojo humano resultan ser aproximadamente el rojo, el verde y el azul.

Una combinación arbitraria de ellos produce, en cualquier caso, un nuevo color


llamado secundario, cuyo brillo es mayor que el de los colores primarios que lo forman. De
esta manera, el color de mayor intensidad (el blanco) es aquél formado por cantidades
máximas de los tres colores primarios, mientras que el de menor intensidad (el negro) estará
formado por las cantidades mínimas (es decir nulas) de los tres.

La fracción de cada color primario que forma un color determinado se llama componente de


color, y se considera que estos componentes son independientes entre sí, queriendo decir con
esto que una cierta cantidad de rojo, por ejemplo, no condiciona en absoluto las cantidades de
verde o azul que pueden formar el color resultante.

Entonces, si de acuerdo con este modelo, el color de una muestra se puede describir como el
conjunto de las cantidades de rojo, verde y azul que lo forman, para cuantificarlo sólo se
requiere definir cuantos niveles diferentes se utilizarán para cada componente.

20
T.R. Segatori, Antonella.
UTN-ISTM- Lic. En Diagnóstico por Imágenes

Podemos imaginar el mismo proceso que en el caso de una imagen en escala de grises, sólo
que cada muestra es examinada a través de un filtro rojo (para obtener la componente de rojo
de la misma), y análogamente en el verde y en el azul, obteniendo tres valores distintos por
muestra, que se cuantifican separadamente, a diferencia del caso anterior, donde sólo
tenemos un valor por muestra.

En definitiva, la distinción entre escala de grises y color se reduce a la multiplicidad de valores


que se miden en cada muestra. Esta multiplicidad recibe un nombre:

El número de componentes independientes de información que se obtienen en cada muestra


se denomina número de canales. Expresaremos el número de canales mediante el símbolo C.

Desde este punto de vista más general, una imagen en escala de gris requiere sólo un canal de
información, mientras que una imagen color descripto mediante el modelo aditivo o RGB (por
ser las iniciales de Red, Green, Blue) requiere 3 canales de información. Otros modelos de color
pueden requerir un número diferente de canales; por ejemplo el modelo sustractivo utilizado
en impresión, conocido como CMYK (por las iniciales de sus colores
primarios Cyan, Magenta, Yellow, más el agregado de K que representa una tinta negra),
necesita 4 canales.

Asimismo, la profundidad de cuantificación Q se refiere ahora a la profundidad por cada canal,


ya que suponemos que cuantificamos a cada uno de los valores de la muestra
utilizando Q bits. 

Peso de una imagen digital


En el caso de una imagen en escala de grises, donde cada muestra genera Q bits de
información, si N es el número total de muestras, la información total de la imagen será Q • N.
Daremos un nombre a esta cantidad:

Llamaremos peso de imagen al total de información generada por el proceso de


digitalización.

Representaremos el peso de imagen por el símbolo P.

Por lo tanto, para imágenes en escala de grises es:

P=Q•N

Dado que N proviene del proceso de muestreo, podemos reemplazarlo por su equivalente (es
decir W • H • R2) para tener una relación que una todos los parámetros de la digitalización en
una sola fórmula:

P = Q • W • H • R2

Ejemplo:

Una imagen de 10 x 15 cm se digitaliza con una resolución de 10 pixeles por mm, utilizando
cuantificación de 4 bits. ¿Cuál es el peso de la imagen resultante?

Expresando las dimensiones en mm, tendremos

21
T.R. Segatori, Antonella.
UTN-ISTM- Lic. En Diagnóstico por Imágenes

P = Q • W • H • R2 = 4 x 100 x 150 x 102 = 6.000.000 bits = 750.000 bytes. (8bits=1 byte)

Para imágenes en color el peso de imagen es:

P = C • Q • N

Y nuestra fórmula final queda:

P = C • Q • W • H • R2

Retomemos ahora el ejemplo anterior, con el mismo tamaño de imagen y la misma resolución,
pero con una cuantificación en color verdadero, es decir, una imagen RGB cuantificada en 8
bits por canal.

El peso de dicha imagen será ahora:

P = C • Q • W • H • R2 = 3 x 8 x 100 x 150 x 102 = 36.000.000 bits = 4, 29 Mb

Tabla de tamaños de archivo


Tamaño en
Nombre Abreviatura Tamaño
Bytes
bit b 1 bit -
Byte B 8 bits 1
Kilobyte KB 1.024 Bytes 1.024
Megabyte MB 1.024 Kbyte 1.048.576
Gigabyte GB 1.024 Mbyte 1.073 millones

Para pasar de bits a byte, primero debo dividir por 8 bits, luego para pasar a KB debo dividir
por 1024bytes, y luego para pasar a MB, debo dividir por 1024Kbyte.

Imágenes digitales nativas


Denominamos así a las imágenes digitales que no provienen de un proceso de
muestreo y cuantificación, sino que son “creadas” internamente en un sistema
informático mediante un software específico.

En el ámbito de las imágenes médicas diagnósticas, pertenecen a este tipo las


generadas por los tomógrafos axiales computados, los equipos de resonancia
magnética nuclear, los ecógrafos y las gammacámaras entre los más conocidos.

22
T.R. Segatori, Antonella.
UTN-ISTM- Lic. En Diagnóstico por Imágenes

23
T.R. Segatori, Antonella.
UTN-ISTM- Lic. En Diagnóstico por Imágenes

Elementos de un Sistema de Imágenes Digital

Subsistema de Captura

Toda imagen diagnóstica es la representación de un aspecto de la realidad, que debe


ser capturada mediante sensores que transformen la información en ella contenida
(intensidad luminosa, color, temperatura, atenuación de la radiación o cualquier otro
parámetro), en señales que serán posteriormente procesadas para conseguir
representaciones reconocibles del modelo original. Esta etapa de captura, en un
sistema digital recibe el nombre de digitalización.
Un digitalizador convierte una imagen de manera que la codifica como una
representación numérica binaria, reconocible por una computadora.
Hay varias maneras de digitalizar, actualmente los Sistemas de Imágenes de
Tomografía Computada, Resonancia Magnética Nuclear, Cámara Gamma y Ecografía
poseen subsistemas de capturas digitales; la Angiografía en la mayoría de los casos
realiza la captura de manera analógica y digitaliza en tiempo real, la Radiología
también esta convirtiéndose a digital con los sistemas de Radiología Computada y Flat
Panel.
Las cadenas que conforman los subsistemas de captura digital, se pueden simplificar a
los efectos ilustrativos en los siguientes casos:
⇒ Detectores de partículas (cámara de ionización, detector de centelleo, etc.)...
corriente eléctrica... amplificador... convertidor analógico-digital. (TC, Cámara
Gamma, Radiología Computada)
⇒ Placa de Imagen... Lector láser... luz... convertidor analógico-digital. (Radiología
Computada)
⇒ Intensificador de Imágenes... Luz... video... Frame Grabber (Radiología Computada,
Angiografía Digital)
⇒ Película... luz... Escáner. (Radiología Digital)
⇒ Transductor... corriente eléctrica... amplificador... convertidor analógico-digital.
(Ecografía)

Subsistema de Procesado

Una vez que la imagen ha sido capturada, la información que la representa se envía al
procesador (computadora) donde puede ser manipulada de acuerdo a las necesidades
del usuario.
Como ya lo dijéramos anteriormente, la imagen es una de las posibles percepciones de
un aspecto de la realidad. Como tal su contenido es información sobre dicha realidad.

24
T.R. Segatori, Antonella.
UTN-ISTM- Lic. En Diagnóstico por Imágenes

La información contenida en la imagen puede ser de distinto tipo, obtendremos datos


sobre formas, tonos, contraste, densidades, índice de atenuación, ecogenicidad,
resonancia, temperaturas, etc. Dependiendo de la energía y los sensores utilizados.
Cada aplicación en particular requiere varios o un tipo de información, con estos datos
se realizaran operaciones que permitirán establecer por ejemplo: la presencia,
ubicación y forma de un objeto presente en la imagen representada.
La realización de estas operaciones con los datos obtenidos, tales como extracción de
ruidos, de características o filtrado es a lo que llamamos procesamiento o tratamiento
digital de la imagen.
Las operaciones que estamos mencionando son la manipulación aritmética de los
datos obtenidos, esto es posible de realizar sobre una imagen digital en virtud de que
hemos transformado la función continua (imagen analógica) en una función discreta
de números binarios.
Las operaciones más frecuentes las podemos clasificar de la siguiente manera:

1. POR OBJETIVOS: Entre los procesamientos más


1.1. Restauración rutinarios encontramos: el
1.2. Mejora Zoom, que permite cambiar el
1.3. Segmentación tamaño de la imagen, el control
1.4. Análisis de Contraste, la asignación de
diferentes paletas de tonos (nivel
1.5. Comprensión / codificación
de ventana), reforzamientos de
2. POR DOMINIO de la OPERACIÓN los bordes, toma de medidas,
2.1. Dominio de coordenadas en el espacio. etc.
2.2. Dominio de coordenadas en las frecuencias
3. POR ALCANCE de la OPERACIÓN Estas operaciones y muchas otras
3.1. Operaciones de punto mas, aparecen en cada sistema
3.2. Operaciones de área o entorno de imágenes con nombres
particulares, en esta clasificación
3.3. Modificación del histograma
se obvian los nombres puestos
3.4. Operaciones geométricas por empresas de aplicaciones.
3.5. Operaciones por transformación

Workstation
Las necesidades del procesado determinan la potencia del sistema a utilizar. La
potencia se mide en términos de velocidad (instrucciones ejecutables por segundo) y
de capacidad (tamaño máximo de las imágenes a almacenar y manipular)
Generalmente las imágenes para su procesado, requieren de alta velocidad y mucha
capacidad de memoria, lo que hasta hace algunos años se conseguía solamente con

25
T.R. Segatori, Antonella.
UTN-ISTM- Lic. En Diagnóstico por Imágenes

computadoras tipo RISC, de altísimo costo. De allí que los sistemas posean una
computadora dedicada a la que se la denomina estación de trabajo (Workstation).

Subsistema de Representación

Si bien es importante capturar fielmente la imagen original y procesarla correctamente


de acuerdo con los criterios seleccionados, no menos fundamental es presentar los
resultados adecuadamente, con la máxima fidelidad posible.
La visualización podrá hacerse sobre un monitor o imprimir en procesadoras láser.
Durante el procesado, resultara imprescindible ir viendo los resultados de los distintos
algoritmos aplicados, pero el usuario final (medico solicitante) podrá optar por el
soporte duro (película).
Por lo tanto el sistema blando y el duro de representación pueden convivir.

Bibliografía
González, R., Woods R.E.; Digital Image Processing, 1992. Ed. Addison Wesley. EEUU.
Pierantoni R, El ojo y la idea, 1998. Ed Paidos. Barcelona.
ZunZunegui S, Pensar la Imagen. 1998. Ed Universidad del Pais Vasco. Madrid.
Aumont J, La Imagen. 1992. Ed Paidos. Barcelona
Cátedra de “Digitalización de Imágenes y Fantomas” de Ing. Alfredo de la Viña- ISTM-UTN.

26
T.R. Segatori, Antonella.

También podría gustarte