Está en la página 1de 27

Republica Bolivariana de Venezuela

Ministerio del Poder Popular para la Educacion


UNEY

TRABAJO DE COMPUTACION

Integrante:
Jose Sivira C.I: 29.880.284
1. Historia de la computacion:

Historia de la computadora
La historia de la computadora es el recuento de los eventos, innovaciones y desarrollos
tecnológicos del campo de la informática y la automatización, que dieron origen a las máquinas que
conocemos como computadoras, computadores u ordenadores. Registra además su mejoramiento y
actualización hasta alcanzar las versiones miniaturizadas y veloces del siglo
Las computadoras, como todos sabemos, son las máquinas de cálculo más avanzadas y
eficientes inventadas por el ser humano. Están dotadas del suficiente poder de operaciones, la
suficiente autonomía y velocidad como para reemplazarlo en muchas tareas, o permitirle dinámicas
de trabajo virtuales y digitales que nunca antes en la historia habían sido posibles.
La invención de este tipo de aparatos en el siglo XX revolucionó para siempre la manera en que
entendemos los procesos industriales, el trabajo, la sociedad y un sinfín de otras áreas de nuestra
vida. Afecta desde el modo mismo de relacionarnos, hasta el tipo de operaciones de intercambio de
información a escala mundial que somos capaces de realizar.

Ver además: Microprocesador
Antecedentes de la computadora

Joseph Marie Jacquard inventó en 1802 un sistema de tarjetas perforadas.


La historia de la computadora tiene largos antecedentes, que se remontan a las primeras reglas de
cálculo y a las primeras máquinas diseñadas para facilitarle al ser humano la tarea de la aritmética. El
ábaco, por ejemplo, fue un importante adelanto en la materia, creado alrededor de 4.000 a. C.
También hubo inventos muy posteriores, como la máquina de Blaise Pascal, conocida como Máquina
de Pascal o Pascalina, creada en 1642. Consistía en una serie de engranajes que permitían realizar
operaciones aritméticas. Esta máquina fue mejorada por Gottfried Leibinitz en 1671 y se dio inicio a la
historia de las calculadoras.

Los intentos del ser humano por automatizar continuaron desde entonces: Joseph Marie Jacquard
inventó en 1802 un sistema de tarjetas perforadas para intentar automatizar sus telares, y en 1822 el
inglés Charles Babbage empleó dichas tarjetas para crear una máquina de cálculo diferencial.
Solamente doce años después (1834), logró innovar su máquina y obtener una máquina analítica
capaz de las cuatro operaciones aritméticas y de almacenar números en una memoria (hasta 1.000
números de 50 dígitos). Por este motivo, a Babbage se le considera el padre de la computación, ya
que esta máquina representa un salto hacia el mundo de la informática como lo conocemos.
Invención de la computadora
La invención de la computadora no puede atribuirse a una sola persona. Se considera a Babbage
como el padre de la rama de saberes que luego será la computación, pero no será sino hasta mucho
más adelante que se hará la primera computadora como tal.
Otro importante fundador en este proceso fue Alan Turing, creador de una máquina capaz de calcular
cualquier cosa, y que llamó “máquina universal” o “máquina de Turing”. Las  ideas que sirvieron para
construirla fueron las mismas que luego dieron nacimiento al primer computador.
Otro importante caso fue el de ENIAC (Electronic Numeral Integrator and Calculator, o sea, Integrador
y Calculador Electrónico Numeral), creado por dos profesores de la universidad de Pensilvania en
1943, considerado el abuelo de los computadores propiamente dicho. Consistía en 18.000 tubos al
vacío que llenaban un cuarto entero.
Invención de los transistores

Los transistores fueron fundamentales para la fabricación de los primeros microchips.


La historia de los computadores no habría tenido el curso que tuvo sin la invención en 1947 de los
transistores, fruto de los esfuerzos de los laboratorios Bell en Estados Unidos. Estos aparatos son
interruptores eléctricos fabricados con materiales sólidos y sin necesidad del vacío.

Este descubrimiento fue fundamental para la fabricación de los primeros microchips, y permitieron el


paso de los aparatos eléctricos a los electrónicos. Los primeros circuitos integrados (o sea, chips)
aparecieron en 1958, fruto de los esfuerzos de Jack Kilby y Robert Noyce. El primero recibió el Premio
Nobel de Física en 2000 por el hallazgo.
Sigue en: Transistores
El primer computador

La Z3 fue la primera computadora electrónica alemana.


Los primeros computadores surgieron como máquinas de cálculo lógico, debido a las necesidades de
los aliados durante la Segunda Guerra Mundial. Para decodificar las transmisiones de los bandos en
guerra debían hacerse cálculos rápido y constantemente.
Por eso, la Universidad de Harvard diseñó en 1944 la primera computadora electromecánica, con
ayuda de IBM, bautizada Mark I. Ocupaba unos 15 metros de largo y 2,5 de alto, envuelta en una caja
de vidrio y acero inoxidable. Contaba con 760.000 piezas, 800 kilómetros de cables y 420
interruptores de control. Prestó servicios durante 16 años.

Al mismo tiempo, en Alemania, se había desarrollado la Z1 y Z2, modelos de prueba de computadores


similares construidos por Konrad Zuse, quien completó su modelo Z3 totalmente operacional, basado
en el sistema binario. Era más pequeño y de más barata construcción que su competidor
estadounidense.

La primera computadora de uso comercial


En febrero de 1951 apareció la Ferranti Mark 1, una versión moderna de la computadora
norteamericana del mismo nombre que estaba disponible comercialmente. Fue sumamente
importante en la historia del computador, pues contaba con un índice de registros, que permitía
la lectura más fácil de un conjunto de palabras en la memoria.
Por esa razón surgieron hasta treinta y cuatro patentes distintas de su desarrollo. En los años
posteriores sirvió de base para la construcción de las computadoras IBM, muy exitosas industrial y
comercialmente.

El primer lenguaje de programación

El lenguaje FORTRAN se desarrolló para el computador IBM 704.


En 1953 apareció FORTRAN, acrónimo de The IBM Mathematical Formula Translation (“Traducción de
fórmulas matemáticas de IBM”), desarrollado como el primer lenguaje formal de programación, o sea,
el primer programa diseñado para fabricar programas computacionales, por los programadores de
IBM, liderados por John Backus.

Inicialmente se desarrolló para el computador IBM 704, y para una variada gama de aplicaciones
científicas y de ingeniería, razón por la cual tuvo una amplia serie de versiones a lo largo de medio
siglo de implementación. Es todavía uno de los dos lenguajes de programación más populares,
especialmente para los supercomputadores del mundo.
La primera computadora moderna

Engelbart inventó el ratón (mouse) y la interfaz gráfica de usuario.


La primera computadora moderna apareció en otoño de 1968, como un prototipo presentado por
Douglas Engelbart. Tenía por primera vez un ratón o puntero, y una interfaz gráfica de usuario  (GUI),
cambiando para siempre el modo en que los usuarios y los sistemas computarizados interactuarían en
adelante.

La presentación del prototipo de Engelbart duró 90 minutos e incluyó una conexión en pantalla con su
centro de investigación, constituyendo así la primera videoconferencia de la historia. Los modelos
de Apple y luego de Windows fueron versiones posteriores de este primer prototipo.
Dispositivos de almacenamiento secundario

Los disquetes de 3 ½ pulgadas eran rígidos, de colores y mucho más pequeños.


El primer dispositivo de intercambio de información entre un computador y otro fueron los disquetes
Floppy, creados en 1971 por IBM. Se trataba de cuadrados negros de plástico flexible, en el medio de
los cuales había un material magnetizable que permitía grabar y recuperar información. Hubo varios
tipos de disquetes:

8 pulgadas. Los primeros en aparecer, voluminosos y con capacidad entre 79 y 512 kbytes.


5 ¼ pulgadas. Semejantes a los de 8 pulgadas pero más pequeños, almacenaban entre 89 y 360
kbytes.
3 ½ pulgadas. Introducidos en la década de los 80, eran rígidos, de colores y mucho más pequeños,
con una capacidad de entre 720 y 1440 kbytes.

También hubo versiones de alta y baja densidad, y numerosas variantes de casetes. A finales de los
80, la aparición y masificación del disco compacto (CD) reemplazó totalmente el formato,
aumentando la velocidad y capacidad de recuperación de datos.

Finalmente, en el cambio de siglo, todos estos formados de dispositivo se hicieron obsoletos y fueron
reemplazados por el pendrive o memoria flash removible, de capacidad variada (pero muy superior),
alta velocidad y portatilidad extrema.

Las primeras redes informáticas

La primera red de computadores del mundo fue ARPANET, creada en 1968 por el


Departamento de Defensa de los Estados Unidos. Sirvió de plataforma rápida de intercambio de
información entre instituciones educativas y estatales, con fines probablemente militares.
Esta red se desarrolló, actualizó y eventualmente se convirtió en la columna vertebral de Internet,
abierta ya al público en general, al menos hasta 1990.
Computadoras del siglo XXI
El surgimiento de la robótica promete dejar sin empleo a muchos trabajadores.
Las computadoras hoy son parte de la vida cotidiana, a punto tal que para muchos es inconcebible ya
un mundo sin ellas. Se las encuentra en nuestras oficinas, en nuestros teléfonos celulares, en diversos
electrodomésticos, a cargo de instalaciones automatizadas, y desempeñando un sinfín de operaciones
de manera automática e independiente.

Esto tiene muchos aspectos positivos, pero también entraña muchos temores. Por ejemplo, el
surgimiento de la robótica, paso siguiente natural de la computación, promete dejar sin empleo a
muchos trabajadores humanos, superados por la capacidad de automatización que cada día es mayor
y más rápida.

Conceptos basicos:
Términos Básicos en Computación
Aprenderemos lo que es una computadora, internet, hardware, software, software del sistema, de
desarrollo, de aplicación, dispositivos de entrada, de salida y almacenamiento.

Computadora
Es un dispositivo o máquina que se encarga del procesamiento de datos, para así dar producir
resultados que pueden ser apreciados en el monitor, impresora, entre otros.
¿Porqué una computadora?
En la actualidad los datos se procesan en su mayoría en una computadora,
en negocios se hace más fácil, rápido, eficaz y seguro el trabajo. En empresas se pueden almacenar
millones de datos y tener varias computadoras conectadas en red. En lo personal es de fácil acceso,
educativo y con bastante entretenimiento que todos en la familia pueden disfrutar y compartir.
Internet

Es la red mas grande del mundo, permite conectar a muchas personas estén en el lugar que sea.
Conoce definiciones relacionadas con Internet en Conceptos comunes en la Red de Internet - 
http://www.actual33.com/conceptos-comunes-en-la-red-de-internet/

Hardware
Son los componentes físicos de un computador. Es lo que se puede tocar. Ejemplo de estos son:
monitor, teclado, ratón o mouse, impresora, escáneres, cámaras, entre otros.

Software
Es la parte lógica necesaria para que una computadora trabaje, esto permite que el hardware realice
las tareas que el usuario necesite, es decir, es la interfaz entre el usuario y los componentes
electrónicos que tiene la computadora.

Se divide en:
Software del sistema
Son los programas que permiten la conexión directa del usuario con la computadora, estos se puede
decir que son vitales para la utilización de la computadora. Es el que va a codificar los mensajes
hechos con un click y transportarlos al hardware. Ejemplo de estos son: Linux, Windows, Unix,
Ubuntu, entre otros.

Software de desarrollo
Como su nombre lo indica, son los programas que permiten el desarrollo de aplicaciones, algunos de
estos son java, visual basic, c++, entre otros.

Software de aplicación
Son los programas que nos permiten hacer aplicaciones, trabajos, diseño gráfico, entretenimiento, y
otros. Alguno de estos son: Microsoft Office, Windows Media Player, Corel Draw, OpenOffice,
OpenOffice Drawn, entre otros.

Software Portable
Un portable es un programa que al ejecutarlo se instala en el disco duro y al cerrarlo se borra
automáticamente, quedando únicamente el instalador de dicho programa. Así, cuando se quiera
utilizar de nuevo solo se ejecuta y listo, ya puede utilizar todas las herramientas que este ofrece.  La
ventaja de los portables es que los programas ocupan menos espacio, ya que solo están
presentes cuando están siendo utilizados.

Software Libre
Son aquellos programas que son, como su nombre lo indica, libres, es decir, cualquier usuario puede
tenerlo sin tener que pagar por adquirir una licencia para poseerlo, permitiéndole poder modificar,
estudiar, distribuir, inspeccionar e incluso mejorar dicho software, haciendo que se pueda adaptar a
sus necesidades, su manejo se hace muy sencillo mientras que las aplicaciones se adecuan fácilmente
a lo requerido, así, tenemos procesadores de textos, hojas de cálculos (openoffice), juegos, el
navegador mozilla, entre otros. Así mismo, el software libre puede trabajar en equipos que
aparentemente ya están obsoletos, permitiendo así la reutilización de estos.

El GNU/Linux es el principal sistema operativo que existe y de este han surgido otros tales como
Ubuntu, OpenBSD, FreeBSD, AtheOS, MIT ExoKernel, FreeDOS, y muchos más.

¿Porqué el software libre se hace mas seguro?

Porque el usuario conocerá como se procesa donde se guarda, que hay o que no existe en su
sistema operativo, quién entra y quien no, esto es posible ya que se tiene conocimiento de cómo
opera el sistema operativo, como se programa y que utiliza para llevar a cabo la función que el mismo
necesite.

¿Porqué el software libre es menos vulnerable?


Porque todas las máquinas no tienen una misma línea de código, haciendo que la tarea de un
hacker o cracker, según sea el caso, sea mas difícil de realizar, ya que este lo que hace es detectar las
fallas en un sistema operativo estudiándolo y viendo la vulnerabilidad que pueda tener, sin embargo,
el software libre se está restaurando y mejorando continuamente.
GPL (General Public License)

Software gratuito. Al contrario que el freeware, el código fuente también se publica y puede ser
modificado por el usuario.
Periféricos
Dispositivos como impresoras, escáneres o teclados que se conectan al ordenador.
Dispositivos o Periféricos de entrada

Como su nombre lo indica, son aquellos dispositivos que nos permiten introducir información dentro
de la computadora, como por ejemplo: teclados, ratón, entre otros.
Dispositivos o Periféricos de salida

Así como los dispositivos de entrada nos permiten introducir información, los dispositivos de salida
nos permiten sacar la información, así tenemos: monitor, impresora, entre otros.
Dispositivos o Periféricos de Almacenamiento

Permiten el almacenamiento de información, así se tienen los cd’s, pendrive, disco duro, entre otros.
Más definiciones

Caché
Memoria intermedia que generalmente se encuentra en las CPUs y en los discos duros. Este tipo de
memorias son un paso intermedio entre la memoria principal y el dispositivo, tienen como finalidad
almacenar los datos temporalmente.

CD-RW (Compact Disk Rewritable)


Versión regrabable de un CD, el cual puede usarse como un disco duro o un disquete.
Compact Flash Card

Tarjeta de memoria utilizada en dispositivos móviles como reproductores de MP3 o cámaras digitales.
CPU (Central Processing Unit)

El corazón del ordenador compuesto de millones de transistores. Los líderes del mercado son Intel y
AMD.

DVD-R
DVD grabable con una capacidad media de 4,7 Gbytes. Sólo se puede grabar una vez

DVD+RW
Un DVD regrabable tiene una capacidad media de 4,7 Gbytes y permite grabar el disco una y otra vez.

Fotografía digital
Te explicamos qué es la fotografía digital y para qué sirve. Además, su historia, características
principales, ventajas y desventajas.

Escuchar
2 min. de lectura
Este
revolucionario avance tecnológico cambió para siempre la industria fotográfica.

¿Qué es la fotografía digital?


La fotografía digital es un proceso de captura de imágenes fijas a través de una cámara oscura, muy
similar al que implica la fotografía tradicional, pero que en lugar de utilizar películas fotosensibles y
químicos de revelado, captura la luz mediante un sensor electrónico compuesto de unidades
fotosensibles.

Las imágenes así capturadas son, además, convertidas en señales eléctricas y almacenadas en una
memoria electrónica, siguiendo los mismos formatos y protocolos de comunicación de las memorias
digitales de las computadoras, y aplicando a la fotografía tomada diversos mecanismos de formato y
compresión.

La fotografía digital, tanto como la fotografía tradicional, se presta tanto para el registro y
documentación de eventos históricos, familiares o personales, así como para la exploración artística,
añadiendo a estos sentidos la posibilidad de intervenir o modificar la imagen computacionalmente,
una vez tomada y almacenada.

Se trata de un revolucionario avance tecnológico que cambió para siempre la industria fotográfica
y permitió el surgimiento de las artes visuales digitales.
Puede servirte: Televisión digital

Historia de la fotografía digital

La primera cámara digital de la historia fue creada por la industria Kodak, pionera en el ramo
fotográfico, en el año de 1975. Desarrollada por Steve Sasson, tenía el tamaño de una tostadora de
pan y una resolución muy precaria (0,01 megapíxeles), además de que el proceso de guardado en
digital de la imagen era sumamente lento: 23 segundos tomaba guardar una fotografía en blanco y
negro en una cinta de casette, y el mismo tiempo para recuperarla una vez almacenada.
Sin embargo, esos primeros intentos abrieron un campo de desarrollo enorme, que conduce en línea
recta a las cámaras digitales modernas, de enorme capacidad de resolución, velocidad de toma y de
guardado, además de otras capacidades modernas como el zoom digital (y no óptico), o incluso el
sistema réflex digital.

¿Para qué sirve la fotografía digital?


La fotografía digital era el paso lógico en la industria fotográfica de cara a la computarización
acelerada que inició a finales del siglo XX. La necesidad de poder trasladar las imágenes tomadas a un
sistema informático sin pasar primero por un proceso de revelado y posterior escaneo, en los que la
imagen podía dañarse o distorsionarse, fue un gran avance en el mundo del manejo de lo visual,
apresurando los tiempos y abaratando los costos, al poder tomar muchas fotos seguidas y
previsualizarlas sin necesidad de esperar al revelado.
Resolucion de pantalla y el monitor

Hace algunos años, cuando la mayoría de nosotros teníamos monitores de resolución 1024 x 768 o
incluso 1280 x 1024 píxeles, los fabricantes nos decían que eso se veía borroso y que para tener la
mejor calidad de imagen necesitábamos pegar el salto a la resolución Full HD (1920 x 1080). Ahora el
4K está en boca de todos resulta que es el Full HD el que se ve borroso, y que necesitamos comprar
un monitor de mayor resolución para tener la mejor calidad de imagen. ¿Hasta qué punto es esto
verdad?

Normalmente podemos pensar que esto se trata de una estrategia de marketing, y realmente es
precisamente eso: han creado mejores monitores y quieren venderlos, así que nos dicen que lo que
tenemos ahora no vale y que necesitamos gastar dinero en su nuevo producto. Pero, en realidad,
también estamos mejorando la calidad de imagen… ¿o no es así?

¿Más resolución implica mejor calidad de imagen?


Si nos atenemos a los datos empíricos, una pantalla Full HD tiene 1920 x 1080 píxeles, o lo que es lo
mismo, algo más de 2 millones de píxeles. Una pantalla Ultra HD tiene una resolución de 3840 x 2160
píxeles, cerca de 8,3 millones de píxeles, cuatro veces más. Esto significa que en el mismo espacio
estamos integrando muchísimos más píxeles, así que lo que tendremos es una mayor definición,
siempre y cuando estemos hablando del mismo tamaño de pantalla.

Y este es un dato importante, el tamaño de la pantalla, porque lo que nos da definición no es la


resolución o el número de píxeles, sino la densidad de píxeles.
La densidad de píxeles es el factor clave para la definición
La densidad de píxeles en un monitor se mide en puntos por pulgada (DPI en inglés por «dots per
inch») pero dado que se refiere al número de puntos que se encuentran dentro de una línea de una
pulgada de exploración, se dejaron de utilizar en favor de los PPI (píxeles por pulgada). Si bien PPI es
el término correcto para referirse a monitores, ambos se suelen usar indistintamente.

La densidad de píxeles es importante porque es lo que determina la calidad de la imagen en el sentido


de que, en general, una mayor densidad permitirá crear imágenes más definidas. Pongamos algunos
ejemplos tomando como referencia un monitor de 27 pulgadas, que es algo bastante habitual y
normal hoy en día:

Un monitor 720p de 27 pulgadas tendría unos 54 PPI.


Un monitor 1080p de 27 pulgadas tiene una densidad de unos 81 PPI.
Si el monitor tiene resolución 1440p, su densidad sería de unos 108 PPI.
Si pasamos a resolución 4K la densidad sube a 163 PPI.
Un monitor 8K de 27 pulgadas tendría una densidad de 326 PPI.

Para poner estos datos en perspectiva, imaginad que tenéis dos monitores, uno al lado del otro, y
ambos con resolución Full HD. Si uno de ellos tiene un tamaño de 32 pulgadas mientras que el otro
tiene 27 pulgadas, si acercas la vista podrás ver una diferencia evidente en cuanto al tamaño de los
píxeles, puesto que aunque ambos monitores tengan la misma cantidad, la densidad del de 27
pulgadas será mucho mayor, sus píxeles serán más pequeños y por lo tanto proporcionará una mejor
definición.

Otro ejemplo al respecto de la densidad: imaginad un monitor 4K de 1000 pulgadas (exagerando).


Siendo así, veremos que los píxeles tienen un tamaño considerable porque la densidad sería muy
baja, y por lo tanto la calidad de imagen será mala por mucho 4K que sea.
Entonces, ¿cuanto mayor sea la densidad de píxeles, mejor?

La respuesta es sí y no. En general una mayor densidad de píxeles es mejor porque proporciona una
mejor definición de las imágenes, pero hay cierto punto en el que el rendimiento decrece. A medida
que la densidad aumenta más y más, las ventajas observables de esa mayor densidad son cada vez
menos evidentes hasta llegar al punto de que son imperceptibles para el ojo humano.

En el ejemplo de antes, el monitor Full HD de 27 pulgadas tendrá una densidad de unos 81 PPI,
mientras que el de 32 pulgadas tendrá 69 PPI. En esta situación es seguro decir que habrá diferencias
observables entre ambos monitores, pero si estuviéramos hablando de dos monitores de 24 pulgadas
los dos, uno con resolución 4K y otro 8K, la diferencia sería imperceptible, y sin embargo obviamente
procesar imágenes a resolución 8K tiene un coste de rendimiento mucho mayor que hacerlo a 4K.
Llegados a este punto, es tema de debate el punto exacto de densidad en el que el ojo humano deja
de percibir los cambios. Algunos expertos dicen que esa cifra se sitúa en torno a los 400 PPI, otros
dicen que 1000, y la mayoría de usuarios nos conformamos con incluso menos de 200. Sea cual sea
ese punto, lo que es evidente es que llega cierto momento en el que deja de apreciarse una mayor
densidad de píxeles.

La calidad de imagen, ligada pero no atada a la resolución


Volviendo al tema principal, según Dolby la calidad de imagen que percibimos las personas (porque al
fin y al cabo es una cuestión subjetiva de percepción) depende principalmente de tres factores:
El número de píxeles (y su densidad, como hemos explicado).

La tasa de cuadros por segundo.


Las prestaciones de los píxeles.

Es en este último punto en el que los fabricantes de paneles para monitor han estado haciendo
hincapié en los últimos tiempos, ya que -según Dolby- si se logra que incluso con el mismo número de
píxeles estos sean capaces de representar una gama dinámica mayor y con un espacio de color más
grande, se mejora la calidad de reproducción. Y en lo que a nosotros respecta no podríamos estar más
de acuerdo, ya que no todo es resolución cuando hablamos de calidad de imagen sino que en
términos de experiencia de usuario, influyen y mucho los FPS y las tecnologías asociadas, como el HDR
por ejemplo.

Mapa de bits
DEFINICIÓN DEMAPA DE BITS
Algunos conceptos pueden conocerse con distintos nombres, especialmente si se aceptan las
denominaciones de otras lenguas. Eso es lo que sucede con la noción de mapa de bits, que también
aparece mencionada como bitmap, pixmap, imagen matricial o imagen rasterizada. La idea de raster
proviene del latín rastrum (“rastrillo”), que a su vez deriva de radere (“raspar”).
Se trata de aquellas imágenes que se forman a partir de puntos, llamados píxeles dispuestos en un
rectángulo o tabla, que se denominada raster. Cada píxel contiene la información del color, la cual
puede o no contener transparencia, y ésta se consigue combinando el rojo, el verde y el azul.

Un mapa de bits es una imagen formada por píxeles en un rectángulo o tabla.


Mapa de bits y resolución de imagen

De acuerdo a la cantidad de píxeles incluida en el mapa de bits, queda determinada la resolución de la


imagen. Es muy común oír valores como 1280 x 720, o 1920 x 1080, y no es más que el número de
puntos expresado de forma que definan el ancho por el alto. Los mapas de bits, por otra parte,
pueden diferenciarse según la cantidad de colores que puede presentar cada uno de los píxeles.
Esta información se expresa en potencia de 2 y en la unidad conocida como  bit; hoy en día, el mínimo
aceptable es 16 bits, siendo 24 y 32 más comunes. Por otro lado, tenemos el tipo RGB, donde sólo es
posible un resultado opaco, y RGBA, que acepta un cuarto valor, para producir imágenes traslúcidas.
Cabe aclarar que la calidad no está ligada necesariamente a las características antes mencionadas,
sino que depende del buen uso que se haga de los recursos disponibles.
La representación vectorial

Otro método para la representación digital de imágenes es el vectorial. Las diferencias entre ambos
son muchas. En principio, las imágenes vectoriales no tienen dimensiones absolutas, sino relativas.
Para dar un ejemplo práctico, supongamos que dibujamos un triángulo y que medimos las distancias
entre sus vértices; si quisiéramos ampliarlo, simplemente aplicaríamos la misma escala a cada una de
sus líneas, y obtendríamos la misma figura, sin ninguna deformación, sólo que más grande. En el caso
de los mapas de bits, esto resulta imposible, ya que la imagen existe como una única lista de puntos,
que no entienden de dimensiones, ángulos o ningún otro concepto matemático.

Es posible representar cualquier tipo de figura mediante un mapa de bits.


A la hora de escalar un bitmap, es necesario contar con una herramienta inteligente que sea capaz de
decidir qué píxeles quitar (en el caso de una reducción) o agregar (para una ampliación) de manera
que se conserve el mayor detalle posible. Todos estos conceptos pueden parecer muy complejos,
pero muchas personas realizan estas tareas a través de conocidos programas de retoque fotográfico,
sea para la confección de un álbum o simplemente para recortar una foto que utilizarán en el perfil de
alguna red social.

Mapa de bits y pixel art


Los videojuegos son una forma de arte tan popular, que en los últimos años han conseguido
recaudaciones comparables con aquellas de la industria cinematográfica. Con títulos tan variados que
van del increíble fotorrealismo a los juegos educativos y entrenadores virtuales, su público ha crecido
más de lo esperado y ha llegado a atraer a personas de todas las edades. Pero en sus comienzos, estas
creaciones estaban lejos de ser consideradas dignas de ser expuestas en un museo.

Antes de la aparición del 3d, los videojuegos se componían de mapas de bits, que eran generalmente
creados por artistas, píxel a píxel. Esta forma de arte es conocida como Pixel art, y ha sabido
mantener su popularidad aun en la era de la tercera dimensión, dada la creciente capacidad de los
ordenadores y consolas, que permiten bitmaps muy complejos y de colores variados e intensos. Pero
incluso en los años 80, cuando los recursos tecnológicos eran extremadamente limitados, los genios
del diseño han creado personajes cuya popularidad ha trascendido a pesar de estar formados por
píxeles; es el caso de Mario, Donkey Kong, Link, de la saga The Legend of Zelda, o Snake, de Metal
Gear.

Pixel y megapixel
¿Qué es un píxel?
Las comunicaciones no serían casi nada sin las imágenes. Incluso antes de que los negativos de las
películas y las impresiones fueran sustituidos por las técnicas de grabación electrónica en fotografía,
se habían desarrollado varios formatos de datos para los archivos de imágenes. Los más populares
fueron RAW, BMP y TIFF. Los desarrolladores no tardaron en darse cuenta de que estos formatos
producían tamaños de archivo considerables, que suponían un obstáculo especialmente para las
aplicaciones web rápidas. Esto, a su vez, condujo a la búsqueda de posibilidades relativas a
la compresión de imágenes. La “batalla” entre JPG y PNG está lejos de terminar, y ya están
apareciendo nuevos formatos en el horizonte – por ejemplo, WebP, el formato de imagen interno de
Google.

Pero hay un aspecto que todos estos ingeniosos formatos técnicos deben abordar: las imágenes
deben poder ser visualizadas en un medio de salida, empezando por una pantalla más o menos
grande con una determinada resolución. Aquí es donde entra en juego el término “picture cell” o
“celda de imagen”, una palabra inventada que se fusionó creando el término píxel y que se utilizó por
primera vez alrededor de 1965. En nuestra guía, descubrirás qué constituye un píxel y cuál es su
función en la representación de imágenes.
Índice

¿Qué es un píxel?

¿De qué están hechos los píxeles?


Tamaño de los píxeles y calidad de la imagen
¿Qué son los megapíxeles?
HiDrive: Almacenamiento en la nube con IONOS
Basado en Alemania, HiDrive mantiene tus datos seguros y almacenados en la nube, así puedes
acceder a ellos desde cualquier dispositivo.

Seguridad máxima

Acceso compartido
Asistencia 24/7
窗体顶端
Continúa
窗体底端

¿Qué es un píxel?
El píxel -o px, para abreviar- es el elemento más pequeño de una imagen reproducida digitalmente. En
un monitor o en la pantalla de un teléfono móvil se suelen alinear varios píxeles en una trama. La
combinación de varios píxeles constituye una imagen rasterizada.

Una imagen en HD (1920 x 1080 píxeles) como imagen de trama, capturada con la cámara de un
smartphone y posteriormente recortada.

El ojo puede “descifrar” fácilmente el gráfico de trama compuesto. Sin embargo, se vuelve más difícil,
o incluso imposible, cuando la imagen del marco blanco se amplía.

Un recorte de la imagen anterior, ampliada en un 1600%, muestra claramente los píxeles de la trama.
Ahora ya no se puede descifrar lo que se muestra.

En la figura anterior, los puntos rasterizados han sido representados por el programa utilizado


(Photoshop). Cada píxel tiene un color o matiz diferente que, al juntarse, crean la imagen compuesta.
Para reproducir una imagen de este tipo en calidad HD, se necesitan 1920 x 1080 píxeles, lo que
supone un total de 2 073 600 píxeles. Estos píxeles deben ser tratados individualmente, en la
secuencia y la tasa de repetición correctas por la tecnología del monitor, por ejemplo, para asegurar
que la imagen completa es visible sin parpadeo y en el color correcto.

¿De qué están hechos los píxeles?


Para que un píxel represente un color específico, se compone de subpíxeles en los
colores rojo, verde y azul (RGB). Estos subpíxeles pueden tener diferentes formas para crear una
disposición con buena definición de imagen y pocos espacios entre los elementos de los píxeles. Un
vistazo a la pantalla de un iPhone 11 Pro, por ejemplo, te muestra lo que es técnicamente posible.
Tiene un tamaño de pantalla de 2436 x 1125 píxeles con una resolución de 458 ppi (píxeles por
pulgada). Esto resulta en un tamaño de píxel de 0,05 milímetros con subpíxeles de 0,018 milímetros
(valores redondeados).

Subpíxel para la generación de un diseño de píxel. El tamaño de los subpíxeles está ahora muy por
debajo del rango de 0,1 mm.

El color de salida del píxel individual es una combinación de los valores de color de tres subpíxeles en
cada caso. Los tres colores se mezclan de forma aditiva y pueden, de este modo, asumir diferentes
valores. La mezcla aditiva significa superponer.
Los tres colores básicos del formato de color RGB con los valores RGB.
Si los tres colores primarios tienen el valor máximo de 255, la salida es en negro. Si RGB = 0/0/0,
aparece el blanco. Los valores intermedios permiten mostrar unos 16,7 millones de tonos de color
(2563).

Representación
del blanco y negro así como de un color seleccionado aleatoriamente en el formato de color RGB con
los valores necesarios para controlar los subpíxeles de un píxel de la imagen.

Imagen Vectoral
VENTAJAS DE LA IMAGEN VECTORIAL
Se pueden escalar sin riesgo a que pierdan nada de calidad.
Son la mejor opción para imprimir, ya que no pierden nada de calidad.
Al estar basadas en fórmulas matemáticas en vez de en píxeles, son capaces de almacenar la
información más compleja sin ocupar demasiado espacio.

Cuando vamos a diseñar el logo de nuestra empresa, una tarjeta de visita o llevar a cabo cualquier
otro tipo de diseño, nos encontramos con dos técnicas diferentes para crear, almacenar y procesar
imágenes digitales: la imagen de mapa de bits y la imagen vectorial.
Al trabajar con archivos de imágenes en Internet, la mayoría suelen tener un formato JPEG, GIF o
PNG, los cuales pertenecen a la imagen de mapa de bits, u otros formatos como el SVG o PDF, que
corresponden a la imagen vectorial.

Hasta aquí todo claro pero, ¿cuál es la diferencia entre la imagen de mapa de bits y la imagen
vectorial? Si no la sabes, presta atención y toma nota porque a continuación te contamos todo lo que
debes saber.

¿QUÉ ES IMAGEN VECTORIAL?


Definición de imagen vectorial:
Las imágenes vectoriales se basan en una serie de coordenadas matemáticas que definen su posición,
forma, color y otros atributos. Estas imágenes se componen de vectores, que son unas figuras
geométricas que pueden ser puntos, líneas, polígonos o segmentos. Por ejemplo, un rectángulo está
definido por dos puntos, el círculo por un centro y un radio, mientras que una curva por varios puntos
y una ecuación.

Eso sí, una imagen vectorial permite representar únicamente formas simples, lo que significa que no
todas las imágenes se pueden describir todas las imágenes con vectores.
A las imágenes vectoriales al estar compuestas por entidades matemáticas, se le pueden aplicar
transformaciones geométricas a la misma, como ampliar, expandir o reducir, sin que pierdan nada de
calidad, ya que continuaremos viendo las diferentes líneas y manchas de colores perfectamente
definidas.
Además, las vectoriales permiten definir una imagen con muy poca información, lo que hace que los
archivos tengan un tamaño bastante reducido.

DIFERENCIA ENTRE MAPA DE BITS Y VECTORES


La diferencia entre la imagen de mapa de bits y la imagen vectorial es clara, y seguro que después de
este post no te resulta complicado identificarla.

Las imágenes de mapa de bits cuentan con una retícula perfectamente definida y, por tanto su calidad
se mantiene fija. Si se amplía o disminuye la imagen, vemos como los píxeles que la forman se
multiplican o dividen, lo que provoca una pérdida de calidad.

Por otro lado las imágenes vectoriales al estar basadas en fórmulas matemáticas, tienen una
resolución infinita, y por tanto se pueden ampliar o reducir sin riesgo de que su calidad baje.
Aunque hay casos en los que resulta realmente complicado distinguir entre imágenes vectoriales y
mapa de bits, si hacemos zoom sobre ellas nos resultará mucho más sencillo, ya que si nos
encontramos con una retícula de píxeles se tratará de mapa de bits, mientras que si la definición no
varía será vectorial.

PRINCIPALES USOS DEL MAPA DE BITS E IMAGEN VECTORIAL


Por los formatos de la imagen vectorial, este tipo de imágenes se utilizan especialmente
para logotipos, iconos, ilustraciones, infografías, tipografías o elementos para webs, que necesitan
mantener su calidad al máximo en todo momento.

En cambio la bitmap se utiliza más para fotografías o imágenes que tienen una buena resolución, pero
no resulta tan importante mantener la calidad al hacer zoom.

VECTORIALES Y MAPA DE BITS: ¿QUÉ FORMATOS UTILIZA CADA UNA?


Formatos de imagen de mapa de bits: JPG, JPEG, PNG, GIF, BMP y TIFF.
Formatos de imagen vectorial: EPS, AI, PDF y SVG.

VENTAJAS DE LA IMAGEN VECTORIAL


Se pueden escalar sin riesgo a que pierdan nada de calidad.
Son la mejor opción para imprimir, ya que no pierden nada de calidad.
Al estar basadas en fórmulas matemáticas en vez de en píxeles, son capaces de almacenar la
información más compleja sin ocupar demasiado espacio.
DESVENTAJAS DE LA IMAGEN VECTORIAL
La principal desventaja de los diferentes formatos de imagen vectorial, es que tienen muchas
limitaciones para la creación de imágenes reales. Resulta muy complicado reproducir una fotografía a
partir de vectores, aunque no es imposible. Existen imágenes vectorizadas que representan
fotografías con una excelente calidad, aunque por lo general son archivos muy complejos y pesados.

VECTORIZACIÓN Y RASTERIZACIÓN
Podemos convertir un mapa de bits en una imagen vectorial a través de un proceso denominado
vectorización. En función de la complejidad que tenga la imagen, podremos realizar la vectorización
con la ayuda de un programa o aplicación especial, o de manera manual si se trata de una imagen
muy compleja.

También podemos convertir imágenes vectoriales en mapa de bits, mediante un proceso de


rasterización, que resulta realmente sencillo.

Conclusión
Con este post esperamos haber solucionado todas las posibles dudas que pudieras tener, y que te
haya quedado clara la diferencia entre mapa de bits e imagen vectorial.
Ya sabes que lo más importante es escoger el formato más adecuado en función del tipo de imagen
que se trate, siendo la imagen de mapa de bits la mejor opción para fotografías, y la imagen vectorial
para logotipos, iconos, infografías, etc.

Mapa de bits vs vectores


DIFERENCIA ENTRE MAPA DE BITS Y VECTORES
La diferencia entre la imagen de mapa de bits y la imagen vectorial es clara, y seguro que después de
este post no te resulta complicado identificarla.

Las imágenes de mapa de bits cuentan con una retícula perfectamente definida y, por tanto su calidad
se mantiene fija. Si se amplía o disminuye la imagen, vemos como los píxeles que la forman se
multiplican o dividen, lo que provoca una pérdida de calidad.

Por otro lado las imágenes vectoriales al estar basadas en fórmulas matemáticas, tienen una
resolución infinita, y por tanto se pueden ampliar o reducir sin riesgo de que su calidad baje.
Aunque hay casos en los que resulta realmente complicado distinguir entre imágenes vectoriales y
mapa de bits, si hacemos zoom sobre ellas nos resultará mucho más sencillo, ya que si nos
encontramos con una retícula de píxeles se tratará de mapa de bits, mientras que si la definición no
varía será vectorial.

PRINCIPALES USOS DEL MAPA DE BITS E IMAGEN VECTORIAL


Por los formatos de la imagen vectorial, este tipo de imágenes se utilizan especialmente
para logotipos, iconos, ilustraciones, infografías, tipografías o elementos para webs, que necesitan
mantener su calidad al máximo en todo momento.
En cambio la bitmap se utiliza más para fotografías o imágenes que tienen una buena resolución, pero
no resulta tan importante mantener la calidad al hacer zoom.

VECTORIALES Y MAPA DE BITS: ¿QUÉ FORMATOS UTILIZA CADA UNA?


Formatos de imagen de mapa de bits: JPG, JPEG, PNG, GIF, BMP y TIFF.
Formatos de imagen vectorial: EPS, AI, PDF y SVG.

VECTOR Y MAPA DE BITS: VENTAJAS Y DESVENTAJAS DE CADA UNO


El mapa de bits y la imagen vectorial presentan una serie de ventajas y desventajas cada una que a
continuación te vamos a contar:
VENTAJAS DE LA IMAGEN DE MAPA DE BITS
Tienen una gran capacidad para representar la realidad a la perfección.
Se muestran como la mejor opción para imágenes como fotografías, ya que destacan por el alto nivel
de detalle que pueden alcanzar.

DESVENTAJAS DE LA IMAGEN DE MAPA DE BITS


Al hacer zoom sobre ellas o reducirlas es habitual que pierdan mucha calidad y acaben pixelándose.
Es posible que no tengan la calidad suficiente como para poder imprimirlas.
Un mapa de bits BMP o en otro formato de mucha calidad, puede ocupar un espacio excesivo.

VENTAJAS DE LA IMAGEN VECTORIAL


Se pueden escalar sin riesgo a que pierdan nada de calidad.
Son la mejor opción para imprimir, ya que no pierden nada de calidad.
Al estar basadas en fórmulas matemáticas en vez de en píxeles, son capaces de almacenar la
información más compleja sin ocupar demasiado espacio.

DESVENTAJAS DE LA IMAGEN VECTORIAL


La principal desventaja de los diferentes formatos de imagen vectorial, es que tienen muchas
limitaciones para la creación de imágenes reales. Resulta muy complicado reproducir una fotografía a
partir de vectores, aunque no es imposible. Existen imágenes vectorizadas que representan
fotografías con una excelente calidad, aunque por lo general son archivos muy complejos y pesados.

Modo color RGB y CMYK

Qué son RGB y CMYK y cuándo usar cada uno

Los colores RGB que vemos en el monitor pueden llegar a ser muy distintos a la hora de
imprimirse en el espacio de color CMYK. Pero hay formas de controlar los colores de tu obra y evitar
sorpresas a la hora de imprimir. Este tutorial explica los modos de color RGB y CMYK y ofrece consejos
imprescindibles para los artistas.
RGB
CMYK
Industria gráfica
Gráfica
Pintura digital
 
Cuando lees documentos o ves imágenes en un monitor, los colores están compuestos por el modo
de color RGB (Red, Green y Blue), porque todos los píxeles de un monitor están formados por esos
tres colores. En las imágenes impresas por una impresora de tinta doméstica o industrial, o una
imprenta offset, los colores se crean en CMYK (Cyan, Magenta, Yellow y Black), que son los colores de
las tintas que tiene la impresora. CLIP STUDIO PAINT incorpora ambos modos de color y es importante
diferenciarlos, pues siguen procesos distintos para reproducir los colores.

 
 
Nuestro sentido de la vista influye en cómo percibimos los colores. La retina, una membrana de
células nerviosas concentradas en la parte posterior del globo ocular, contiene dos tipos de células
fotorreceptoras: los conos y los bastones. Los bastones detectan los niveles de luz y los conos, de
color. Los conos pueden ser de tres tipos, según la longitud de onda a la que reaccionen: A la luz de
onda corta la llamamos “azul”, a la onda media “verde” y a la larga, “rojo”. En términos científicos, los
seres humanos somos tricromáticos.
 
Colores primarios aditivos: RGB
Gracias a la tricromía somos capaces de percibir los colores primarios aditivos. Dadas tres fuentes de
luz, si cada una emite una longitud de onda de forma que las tres abarquen todo el espectro visible,
percibiremos el color blanco. Si usamos fuentes de luz (colores luz), comenzamos desde la oscuridad
(negro) y vamos añadiendo luces de colores —de ahí el término “aditivo”. Para crear la luz blanca, se
suma la misma cantidad de cada uno de los tres colores primarios.
Los colores que percibimos dependen de la cantidad que estemos añadiendo de cada longitud de
onda. Como estamos añadiendo luz, asociamos los tres colores primarios aditivos a dispositivos que
emiten luz, como monitores o pantallas de televisión.
 
Primarios sustractivos: CMY + K
Los conos de nuestros ojos también perciben los colores primarios substractivos. Los colores
primarios sustractivos son el cian, el magenta y el amarillo, y se refieren al color que refleja una
superficie que absorbe luz blanca. En sistemas de impresión, dada una superficie blanca (un papel), se
añade tinta (o pintura) de color cian, magenta y amarillo hasta conseguir el tono negro.
Podemos decir que el amarillo es una especie de sustractor de ondas cortas, el magenta un sustractor
de ondas medias y el cian, de ondas largas.
Nota: No es posible conseguir un negro puro absoluto mezclando cian, magenta y amarillo, porque en
realidad ninguno de esos pigmentos es lo suficientemente puro. Lo máximo que conseguiremos es un
marrón muy oscuro. Por eso, al imprimir, se le añade el negro a los primarios. Se usa la letra “K” para
no confundirla con la “B” del azul. El negro, sin embargo, no es un color primario.
 
Espacio de color
Los tres colores primarios no solo nos ayudan a describir los colores, sino también nos sirven para
interpretar las relaciones entre los colores. Para ello, asignamos a cada primario un eje de
coordenadas en un espacio tridimensional.
 
 
 

 
A este sistema lo llamamos “espacio de color”. Hay espacios de color muy conocidos, como Adobe
RGB, sRGB (creado pensando en las webs), eciCMYK (FOGRA53; impresión), GRACol y SWOP.
Por ejemplo, Adobe RGB lo creó Adobe en 1998 y es un espacio de color RGB. Fue diseñado para
incluir la mayoría de los colores que se pueden conseguir en las impresoras CMYK pero usando los
colores primarios RGB que existen, por ejemplo, en la pantalla de un PC.

FOGRA53 es un espacio de intercambio basado en CMYK, es decir, su función principal es facilitar la


transferencia de colores en el flujo de producciones para impresión. Complementa las condiciones de
impresión de referencia impresas bajo condiciones reales offset. FOGRA53 consigue una reproducción
fiel de los colores en los procedimientos de impresión, como la preparación de copias, el montaje,
pruebas de imprenta e impresión en policromía.

Abarca zonas específicas de gamas de colores utilizadas para la producción de material impreso a
partir de datos digitales, independientemente del proceso de impresión. Añaden, así, la capacidad de
prueba a las impresoras destinadas a este fin. Para saber más: https://www.fogra.org/en/fogra-
research/wc-digital-printing/digital-printing-current-projects/consolidating-standardization/
exchange-colour-space/new-cmyk-based-colour-exchange-space-fogra53-and-ecicmyk-released.html.
 

FOGRA53 colour space


 
Medición del color
Los humanos somos tricromáticos, pero también existen tricromáticos artificiales. Los escáneres
fotográficos, las cámaras y los colorímetros son herramientas que simulan la forma en que el ojo
humano ve los colores. De ellas, el colorímetro es la más precisa y la más importante, porque nos
permite calibrar o cualificar un monitor. Resulta imprescindible para asegurarnos de que el color que
estamos viendo en la pantalla es el más cercano posible al color impreso.
 

Tres tipos de colorímetros


 
Sistemas de gestión de color
Además de este modelo tricromático, la retina se compone de elementos que generan señales
opuestas según la longitud de la onda recibida. Como resultado, la retina conforma un modelo de
pares opuestos: luz-oscuridad, rojo-verde y amarillo-azul. Estos modelos se condensan en la ZONE
THEORY OF COLOUR, que establece que una capa de la retina contiene los conos tricromáticos y otra
capa traduce estas señales a sus opuestos.

Nos interesa especialmente porque muchos modelos de color de la CIE (Comisión Internacional de la
Iluminación), como el CIELAB —en el que se basan la mayoría de los cálculos y conversiones de
gestión del color— incorporan aspectos de ambos modelos de retina.
 
RGB y CMYK en dispositivos digitales
Al reproducir el color en un dispositivo físico, ya sea un monitor, una película transparente o un folio
impreso, estamos manipulando los colores luz rojo, verde y azul.
En un dispositivo RGB real como un monitor, un escáner o una cámara digital, trabajamos
directamente con luces rojas, verdes y azules. En una impresión o en una película, también
manipulamos el rojo, el verde y el azul, pero lo hacemos de forma indirecta, valiéndonos de los
pigmentos CMY para sustraer esas ondas de un fondo blanco.

 
El color digital suele estar codificado para representar cantidades variables de R, G y B o de C, M y Y (y
K). Sin embargo, no son valores absolutos, ya que un archivo RGB o CMYK contiene una sola fórmula
de reproducción cromática que cada dispositivo interpreta de manera diferente. Si envías
exactamente el mismo archivo RGB a varios monitores o el mismo archivo CMYK a diferentes
imprentas, obtendrás imágenes diferentes. Algunas se parecerán entre sí, mientras que otras
presentarán claras diferencias en uno o más colores.
 
Los modelos RGB y CMYK no están pensados para que los colores se reproduzcan de manera idéntica
en dispositivos distintos. Para poner un ejemplo más real, imagina que compras dos botes de pintura
acrílica “rojo escarlata” con alta concentración de pigmento, siendo cada bote de un fabricante
distinto, pero ambos fabricantes venden esta pintura a grandes artistas. Estás comprando el mismo
color, ¿verdad? Pues aunque se llamen igual, no van a ser exactamente iguales. Ambos serán rojos,
pero la palabra “escarlata” seguramente no signifique lo mismo en la marca X que en la marca Y.
 

—”Rojo escarlata” según tres marcas distintas de pintura acrílica—


 
Con los modelos RGB y CMYK pasa algo parecido. Imagina que estás sentado frente a la pantalla de tu
ordenador y aplicas un rojo con los valores R=255, G=0 y B=10. Lógicamente esperamos que la
reproducción cromática sea la misma en impresoras de la misma marca, o incluso en varias marcas.
Pero no va a ser así. Incluso con estas mismas impresoras bien calibradas y cualificadas, apreciarás las
diferencias; porque los valores numéricos RGB/CMYK que usamos en los dispositivos digitales son solo
señales de control que enviamos para que produzcan tonos según los parámetros bajo los cuales
hayan sido programados por el fabricante. Por eso siempre tenemos que pensar en RGB y CMYK
como números afinados para un dispositivo específico.
 
Colorantes o primarios
En pintura, los colorantes son los pigmentos que usa el fabricante junto con el producto químico que
se usa como médium fijador. Un conocido fabricante británico usa goma arábiga como médium para
producir sus acuarelas. Como resultado, todos sus colores presentan un ligero matiz amarillento. Su
competidor estadounidense, más conocido por su gama de pinturas acrílicas, ha lanzado una serie de
acuarelas con un médium 100 % transparente, dando como resultado una reproducción cromática
“más real”.
 
— Pigmentos en polvo —
 
En el color digital no hay pigmentos ni diluyentes, pero sí existen otros factores que intervienen en la
reproducción cromática. El color que un dispositivo produce depende, ante todo, de los colorantes
que use. En un monitor, los primarios son las luces LED RGB de la pantalla. En un escáner o una
cámara digital, los primarios son los filtros a través de los cuales los sensores capturan la imagen.
 

— Filtro Bayer sobre el sensor de una cámara o de un escáner —


 
En una impresora, los colorantes son más parecidos a los del mundo real: las tintas, los tóneres o los
tintes que se ponen en el papel. A la hora de determinar la forma en que un color concreto debe
adherirse al médium (o para tomar medidas), y también porque el color sustractivo de las impresoras
en CMYK es un poco más complicado que el color aditivo de los dispositivos RGB, normalmente
compensamos los valores de los colorantes primarios con valores de los secundarios. El resultado son
las sobreimpresiones magenta + amarillo, cian + amarillo y cian + magenta.
 

— Interior de una impresora de inyección de tinta —


 
Los colorantes también determinan los colores que puede reproducir el dispositivo. A esto lo
llamamos el espectro, la gama de colores o gamut del dispositivo. Con dispositivos CMYK también
debemos tener en cuenta, además, el brillo de los colores. Esta es la densidad de los primarios, la cual
podríamos definir como la capacidad que tienen para absorber la luz.
 
Brillo, rango dinámico, densidad, punto blanco y punto negro
Además de los colorantes, el gamut de un dispositivo viene definido por otros dos valores, que
también deben ser medidos y utilizados: el punto blanco y el punto negro.
El color del punto blanco es más importante que la densidad, puesto que el matiz del blanco sirve
como referencia para los demás colores. Al ver una imagen en un monitor o en un papel blanco, la
percepción de todos los demás colores que recibes en ese momento se adapta a esta referencia. A
este reflejo automático del ojo se le llama adaptación de punto blanco.
 
— Ajustando los puntos negro y blanco para la corrección de la impresión—
 
Con el punto negro, la densidad es más importante que el color, puesto que la densidad del negro
determina el nivel máximo de brillo que un dispositivo es capaz de reproducir. Como la reproducción
de los detalles está, en gran parte, definida por una gama dinámica, es importante que el punto negro
del dispositivo sea el idóneo.

Un monitor LED corriente puede ofrecer las diferencias de brillo suficientes para que podamos
apreciar tonalidades en las sombras de una imagen.
En una impresora, podemos mejorar la densidad del color y del punto negro agregando la tinta negra
a los colorantes CMY, dando como resultado un punto negro neutro y un color negro mucho más
oscuro que el de la mezcla de C, M y Y.

Los puntos blanco y negro se localizan en los extremos de la reproducción cromática, pero un sistema
de gestión de color también necesita saber las características de reproducción de los tonos del
dispositivo.

Por eso a menudo nos encontramos con el término “curva de reproducción tonal” (TRC), una curva
que define la relación entre los valores de entrada y los valores de brillo resultantes en un dispositivo.
En monitores, escáneres y cámaras digitales, a esta curva la llamamos “curva gamma” o “curva de
corrección gamma”. En las impresoras se llama ganancia de punto o engrosamiento del punto.
 
De un dispositivo a otro
El rango dinámico de una impresora o de una prensa comprende desde el brillo del papel hasta el
negro más absoluto de la tinta. Algunos dispositivos (p. ej., una cámara DSLR) tienen un rango
dinámico muy amplio comparado con otros (p. ej., una impresora de inyección de tinta) que necesitan
comprimir la reproducción cromática de un rango mayor a uno más reducido.
A este proceso se le llama compresión tonal. También se da un problema cuando el gamut de un
dispositivo no contiene el mismo gamut que otro dispositivo. Un ejemplo de este caso es el monitor
de nuestro PC, que viene con un gamut más amplio que nuestra impresora y sin embargo no puede
reproducir algunos tonos de la tinta CMYK sobre el papel.
 

— El gamut blanco traslúcido es el de la pantalla El gamut de color corresponde a la impresora CMYK



 
Para resolver ambos problemas, los sistemas de gestión del color realizan una redistribución de la
gama tonal (gamut mapping), que comprende cualquier método, por muy rudimentario que parezca,
que ajuste entre sí los diferentes gamuts de nuestros dispositivos. Para ajustar un monitor con una
impresora, sabemos por ejemplo que algunos colores que queremos reproducir se hallan fuera del
gamut de nuestra pantalla y otros fuera del gamut de la impresora.

Para que estos colores sean visibles en un monitor o para que puedan imprimirse con la mínima
distorsión en la reproducción cromática, convertiremos la imagen mediante uno de estos cuatro
procesos llamados propósitos (o propuestas) de conversión:
 

Colorimétrico absoluto
 
El primero es el propósito colorimétrico absoluto. Este propósito de conversión vuelve a poner dentro
del gamut los colores que habían quedado fuera intentando que sufran la mínima variación y no toca
los colores que están dentro del gamut. Con este propósito de conversión, corremos el riesgo de
cambiar drásticamente algunos colores y de perder otros muchos. Este resultado se debe a que el
propósito incluye el color del papel. Además, algunos tonos de cian saturados y naranjas-amarillos
que se han conseguido en la impresión no pueden conseguirse fielmente en el monitor, por lo que el
monitor tiene que mostrar el blanco con valores inferiores a RGB 255, 255, 255, perdiendo así una
parte del rango dinámico.
 
Perfiles de color
Es un buen momento para hablar de los perfiles de color. Los perfiles de color son “descripciones” del
espacio de color, el gamut y el comportamiento de un dispositivo calibrado. En el mundo de la
imprenta profesional, los perfiles de color como “US Web Coated SWOP v2” son normas comunes
creadas por los grupos del sector.
Las imprentas calibran sus impresoras según una normativa sobre ese perfil, de modo que, cuando es
el perfil adecuado (consúltalo antes con la imprenta), tus colores encajarán con los que la impresora
puede reproducir.
 

— Colorimétrico relativo —
 
El segundo propósito de conversión es el colorimétrico relativo. Incluye los colores que no encajan en
el gamut desaturándolos, pero sin cambiarles el tono (siempre que sea posible, puesto que no todos
los colores pueden entrar en el gamut sin cambiarlos). La mayoría de los programas reproducen los
colores de esta forma. El blanco del papel se traduce al blanco del monitor y los demás se calculan
tomándolo como referencia. Sin embargo, esto no muestra el efecto que tiene el blanco del papel en
el tono general.
 
Propósito perceptual
 
El tercer propósito de conversión es el perceptual. Comprime el gamut para que encaje en el gamut
de destino, pero mantiene, en la medida de lo posible, las posiciones cromáticas relativas originales.
Se desatura casi todo, pero las relaciones entre los colores quedan intactas. Es decir, se pierde
intensidad pero todo lo demás se conserva.
 

Propósito de saturación
 
El último propósito de conversión es el de saturación. Se comporta como un propósito perceptual,
pero actuando más sobre los colores que están fuera que en el gamut de destino, manteniendo así,
todo lo posible, la saturación de los colores.
El propósito de reproducción de la saturación se usa sobre todo en los logotipos corporativos y
gráficos similares, como los que tienen colores Pantone y otros “colores suplementarios”.
En el mundo de la fotografía, el perceptual es el propósito más común.
 
Cuándo usar CMYK y cuándo usar RGB para la salida
Llamamos impresoras “true RGB” a aquellas como la LumeJet S200, cuyos cabezales están basados en
luces LED. A través de un cono de fibra que actúa como una lente, la impresora alcanza una resolución
de 4000 ppp. Cada haz de luz de fibra óptica crea una mancha roja, verde o azul del tamaño de una
partícula de haluro de plata, material fotosensible presente en el papel de impresión. Se usa
principalmente —o casi exclusivamente— en la impresión de álbumes fotográficos.
 
No hay muchas impresoras true RGB y, en el momento de escribir este artículo, la LumeJet S200 ya no
está en el mercado. Lo cierto es que no conozco otras impresoras de este tipo.
 
La mayoría de las impresoras, incluyendo nuestras impresoras domésticas de tinta, son en realidad
CMYK. A la hora de imprimir con una impresora de tinta, lo normal es usar el controlador de
impresora del fabricante. Para imprimir una imagen desde un programa, este controlador convierte
los datos RGB de la imagen en CMYK. Como el controlador está desarrollado por el propio fabricante,
la reproducción de los colores y la aplicación de la tinta serán las programadas por el fabricante.
Darán, por lo tanto, unos buenos resultados.
 
— Controlador Epson RGB en un Mac —
 
Sin embrago, si queremos tener más control sobre la cantidad de tinta que se usará para cada color o
ampliar todo lo posible el rango dinámico de la impresora, puede que sea mejor usar PostScript RIP.
Un RIP (abreviatura de Raster Image Processor o procesador de imágenes ráster) ignora el
controlador RGB/CMYK y permite al usuario controlar directamente no solo los inyectores C, M, Y y K,
sino también todo el sistema de impresión. El RIP nos permite manipular el proceso de impresión
igual que un profesional configura su impresora de pruebas. Con un RIP podemos controlar aspectos
como la representación del color, la densidad y la cantidad de tinta que sale de cada inyector.
 
Sin embargo, con un RIP Postscript primero hay que calibrar y linealizar la impresora para construir
después su perfil básico, teniendo además un solo perfil de salida para cada combinación de tinta y
papel. Para hacerlo necesitamos un espectrómetro (como, por ejemplo, el X-Rite i1Pro), que nos
ofrece un control total sobre los colores impresos en cualquier papel específico y la posibilidad de
ajustar correctamente los colores en pantalla.
Hasta aquí nuestra introducción al RGB, CMYK y a la gestión de color.

También podría gustarte