Documentos de Académico
Documentos de Profesional
Documentos de Cultura
TRABAJO DE COMPUTACION
Integrante:
Jose Sivira C.I: 29.880.284
1. Historia de la computacion:
Historia de la computadora
La historia de la computadora es el recuento de los eventos, innovaciones y desarrollos
tecnológicos del campo de la informática y la automatización, que dieron origen a las máquinas que
conocemos como computadoras, computadores u ordenadores. Registra además su mejoramiento y
actualización hasta alcanzar las versiones miniaturizadas y veloces del siglo
Las computadoras, como todos sabemos, son las máquinas de cálculo más avanzadas y
eficientes inventadas por el ser humano. Están dotadas del suficiente poder de operaciones, la
suficiente autonomía y velocidad como para reemplazarlo en muchas tareas, o permitirle dinámicas
de trabajo virtuales y digitales que nunca antes en la historia habían sido posibles.
La invención de este tipo de aparatos en el siglo XX revolucionó para siempre la manera en que
entendemos los procesos industriales, el trabajo, la sociedad y un sinfín de otras áreas de nuestra
vida. Afecta desde el modo mismo de relacionarnos, hasta el tipo de operaciones de intercambio de
información a escala mundial que somos capaces de realizar.
Ver además: Microprocesador
Antecedentes de la computadora
Los intentos del ser humano por automatizar continuaron desde entonces: Joseph Marie Jacquard
inventó en 1802 un sistema de tarjetas perforadas para intentar automatizar sus telares, y en 1822 el
inglés Charles Babbage empleó dichas tarjetas para crear una máquina de cálculo diferencial.
Solamente doce años después (1834), logró innovar su máquina y obtener una máquina analítica
capaz de las cuatro operaciones aritméticas y de almacenar números en una memoria (hasta 1.000
números de 50 dígitos). Por este motivo, a Babbage se le considera el padre de la computación, ya
que esta máquina representa un salto hacia el mundo de la informática como lo conocemos.
Invención de la computadora
La invención de la computadora no puede atribuirse a una sola persona. Se considera a Babbage
como el padre de la rama de saberes que luego será la computación, pero no será sino hasta mucho
más adelante que se hará la primera computadora como tal.
Otro importante fundador en este proceso fue Alan Turing, creador de una máquina capaz de calcular
cualquier cosa, y que llamó “máquina universal” o “máquina de Turing”. Las ideas que sirvieron para
construirla fueron las mismas que luego dieron nacimiento al primer computador.
Otro importante caso fue el de ENIAC (Electronic Numeral Integrator and Calculator, o sea, Integrador
y Calculador Electrónico Numeral), creado por dos profesores de la universidad de Pensilvania en
1943, considerado el abuelo de los computadores propiamente dicho. Consistía en 18.000 tubos al
vacío que llenaban un cuarto entero.
Invención de los transistores
Inicialmente se desarrolló para el computador IBM 704, y para una variada gama de aplicaciones
científicas y de ingeniería, razón por la cual tuvo una amplia serie de versiones a lo largo de medio
siglo de implementación. Es todavía uno de los dos lenguajes de programación más populares,
especialmente para los supercomputadores del mundo.
La primera computadora moderna
La presentación del prototipo de Engelbart duró 90 minutos e incluyó una conexión en pantalla con su
centro de investigación, constituyendo así la primera videoconferencia de la historia. Los modelos
de Apple y luego de Windows fueron versiones posteriores de este primer prototipo.
Dispositivos de almacenamiento secundario
También hubo versiones de alta y baja densidad, y numerosas variantes de casetes. A finales de los
80, la aparición y masificación del disco compacto (CD) reemplazó totalmente el formato,
aumentando la velocidad y capacidad de recuperación de datos.
Finalmente, en el cambio de siglo, todos estos formados de dispositivo se hicieron obsoletos y fueron
reemplazados por el pendrive o memoria flash removible, de capacidad variada (pero muy superior),
alta velocidad y portatilidad extrema.
Esto tiene muchos aspectos positivos, pero también entraña muchos temores. Por ejemplo, el
surgimiento de la robótica, paso siguiente natural de la computación, promete dejar sin empleo a
muchos trabajadores humanos, superados por la capacidad de automatización que cada día es mayor
y más rápida.
Conceptos basicos:
Términos Básicos en Computación
Aprenderemos lo que es una computadora, internet, hardware, software, software del sistema, de
desarrollo, de aplicación, dispositivos de entrada, de salida y almacenamiento.
Computadora
Es un dispositivo o máquina que se encarga del procesamiento de datos, para así dar producir
resultados que pueden ser apreciados en el monitor, impresora, entre otros.
¿Porqué una computadora?
En la actualidad los datos se procesan en su mayoría en una computadora,
en negocios se hace más fácil, rápido, eficaz y seguro el trabajo. En empresas se pueden almacenar
millones de datos y tener varias computadoras conectadas en red. En lo personal es de fácil acceso,
educativo y con bastante entretenimiento que todos en la familia pueden disfrutar y compartir.
Internet
Es la red mas grande del mundo, permite conectar a muchas personas estén en el lugar que sea.
Conoce definiciones relacionadas con Internet en Conceptos comunes en la Red de Internet -
http://www.actual33.com/conceptos-comunes-en-la-red-de-internet/
Hardware
Son los componentes físicos de un computador. Es lo que se puede tocar. Ejemplo de estos son:
monitor, teclado, ratón o mouse, impresora, escáneres, cámaras, entre otros.
Software
Es la parte lógica necesaria para que una computadora trabaje, esto permite que el hardware realice
las tareas que el usuario necesite, es decir, es la interfaz entre el usuario y los componentes
electrónicos que tiene la computadora.
Se divide en:
Software del sistema
Son los programas que permiten la conexión directa del usuario con la computadora, estos se puede
decir que son vitales para la utilización de la computadora. Es el que va a codificar los mensajes
hechos con un click y transportarlos al hardware. Ejemplo de estos son: Linux, Windows, Unix,
Ubuntu, entre otros.
Software de desarrollo
Como su nombre lo indica, son los programas que permiten el desarrollo de aplicaciones, algunos de
estos son java, visual basic, c++, entre otros.
Software de aplicación
Son los programas que nos permiten hacer aplicaciones, trabajos, diseño gráfico, entretenimiento, y
otros. Alguno de estos son: Microsoft Office, Windows Media Player, Corel Draw, OpenOffice,
OpenOffice Drawn, entre otros.
Software Portable
Un portable es un programa que al ejecutarlo se instala en el disco duro y al cerrarlo se borra
automáticamente, quedando únicamente el instalador de dicho programa. Así, cuando se quiera
utilizar de nuevo solo se ejecuta y listo, ya puede utilizar todas las herramientas que este ofrece. La
ventaja de los portables es que los programas ocupan menos espacio, ya que solo están
presentes cuando están siendo utilizados.
Software Libre
Son aquellos programas que son, como su nombre lo indica, libres, es decir, cualquier usuario puede
tenerlo sin tener que pagar por adquirir una licencia para poseerlo, permitiéndole poder modificar,
estudiar, distribuir, inspeccionar e incluso mejorar dicho software, haciendo que se pueda adaptar a
sus necesidades, su manejo se hace muy sencillo mientras que las aplicaciones se adecuan fácilmente
a lo requerido, así, tenemos procesadores de textos, hojas de cálculos (openoffice), juegos, el
navegador mozilla, entre otros. Así mismo, el software libre puede trabajar en equipos que
aparentemente ya están obsoletos, permitiendo así la reutilización de estos.
El GNU/Linux es el principal sistema operativo que existe y de este han surgido otros tales como
Ubuntu, OpenBSD, FreeBSD, AtheOS, MIT ExoKernel, FreeDOS, y muchos más.
Porque el usuario conocerá como se procesa donde se guarda, que hay o que no existe en su
sistema operativo, quién entra y quien no, esto es posible ya que se tiene conocimiento de cómo
opera el sistema operativo, como se programa y que utiliza para llevar a cabo la función que el mismo
necesite.
Software gratuito. Al contrario que el freeware, el código fuente también se publica y puede ser
modificado por el usuario.
Periféricos
Dispositivos como impresoras, escáneres o teclados que se conectan al ordenador.
Dispositivos o Periféricos de entrada
Como su nombre lo indica, son aquellos dispositivos que nos permiten introducir información dentro
de la computadora, como por ejemplo: teclados, ratón, entre otros.
Dispositivos o Periféricos de salida
Así como los dispositivos de entrada nos permiten introducir información, los dispositivos de salida
nos permiten sacar la información, así tenemos: monitor, impresora, entre otros.
Dispositivos o Periféricos de Almacenamiento
Permiten el almacenamiento de información, así se tienen los cd’s, pendrive, disco duro, entre otros.
Más definiciones
Caché
Memoria intermedia que generalmente se encuentra en las CPUs y en los discos duros. Este tipo de
memorias son un paso intermedio entre la memoria principal y el dispositivo, tienen como finalidad
almacenar los datos temporalmente.
Tarjeta de memoria utilizada en dispositivos móviles como reproductores de MP3 o cámaras digitales.
CPU (Central Processing Unit)
El corazón del ordenador compuesto de millones de transistores. Los líderes del mercado son Intel y
AMD.
DVD-R
DVD grabable con una capacidad media de 4,7 Gbytes. Sólo se puede grabar una vez
DVD+RW
Un DVD regrabable tiene una capacidad media de 4,7 Gbytes y permite grabar el disco una y otra vez.
Fotografía digital
Te explicamos qué es la fotografía digital y para qué sirve. Además, su historia, características
principales, ventajas y desventajas.
Escuchar
2 min. de lectura
Este
revolucionario avance tecnológico cambió para siempre la industria fotográfica.
Las imágenes así capturadas son, además, convertidas en señales eléctricas y almacenadas en una
memoria electrónica, siguiendo los mismos formatos y protocolos de comunicación de las memorias
digitales de las computadoras, y aplicando a la fotografía tomada diversos mecanismos de formato y
compresión.
La fotografía digital, tanto como la fotografía tradicional, se presta tanto para el registro y
documentación de eventos históricos, familiares o personales, así como para la exploración artística,
añadiendo a estos sentidos la posibilidad de intervenir o modificar la imagen computacionalmente,
una vez tomada y almacenada.
Se trata de un revolucionario avance tecnológico que cambió para siempre la industria fotográfica
y permitió el surgimiento de las artes visuales digitales.
Puede servirte: Televisión digital
La primera cámara digital de la historia fue creada por la industria Kodak, pionera en el ramo
fotográfico, en el año de 1975. Desarrollada por Steve Sasson, tenía el tamaño de una tostadora de
pan y una resolución muy precaria (0,01 megapíxeles), además de que el proceso de guardado en
digital de la imagen era sumamente lento: 23 segundos tomaba guardar una fotografía en blanco y
negro en una cinta de casette, y el mismo tiempo para recuperarla una vez almacenada.
Sin embargo, esos primeros intentos abrieron un campo de desarrollo enorme, que conduce en línea
recta a las cámaras digitales modernas, de enorme capacidad de resolución, velocidad de toma y de
guardado, además de otras capacidades modernas como el zoom digital (y no óptico), o incluso el
sistema réflex digital.
Hace algunos años, cuando la mayoría de nosotros teníamos monitores de resolución 1024 x 768 o
incluso 1280 x 1024 píxeles, los fabricantes nos decían que eso se veía borroso y que para tener la
mejor calidad de imagen necesitábamos pegar el salto a la resolución Full HD (1920 x 1080). Ahora el
4K está en boca de todos resulta que es el Full HD el que se ve borroso, y que necesitamos comprar
un monitor de mayor resolución para tener la mejor calidad de imagen. ¿Hasta qué punto es esto
verdad?
Normalmente podemos pensar que esto se trata de una estrategia de marketing, y realmente es
precisamente eso: han creado mejores monitores y quieren venderlos, así que nos dicen que lo que
tenemos ahora no vale y que necesitamos gastar dinero en su nuevo producto. Pero, en realidad,
también estamos mejorando la calidad de imagen… ¿o no es así?
Para poner estos datos en perspectiva, imaginad que tenéis dos monitores, uno al lado del otro, y
ambos con resolución Full HD. Si uno de ellos tiene un tamaño de 32 pulgadas mientras que el otro
tiene 27 pulgadas, si acercas la vista podrás ver una diferencia evidente en cuanto al tamaño de los
píxeles, puesto que aunque ambos monitores tengan la misma cantidad, la densidad del de 27
pulgadas será mucho mayor, sus píxeles serán más pequeños y por lo tanto proporcionará una mejor
definición.
La respuesta es sí y no. En general una mayor densidad de píxeles es mejor porque proporciona una
mejor definición de las imágenes, pero hay cierto punto en el que el rendimiento decrece. A medida
que la densidad aumenta más y más, las ventajas observables de esa mayor densidad son cada vez
menos evidentes hasta llegar al punto de que son imperceptibles para el ojo humano.
En el ejemplo de antes, el monitor Full HD de 27 pulgadas tendrá una densidad de unos 81 PPI,
mientras que el de 32 pulgadas tendrá 69 PPI. En esta situación es seguro decir que habrá diferencias
observables entre ambos monitores, pero si estuviéramos hablando de dos monitores de 24 pulgadas
los dos, uno con resolución 4K y otro 8K, la diferencia sería imperceptible, y sin embargo obviamente
procesar imágenes a resolución 8K tiene un coste de rendimiento mucho mayor que hacerlo a 4K.
Llegados a este punto, es tema de debate el punto exacto de densidad en el que el ojo humano deja
de percibir los cambios. Algunos expertos dicen que esa cifra se sitúa en torno a los 400 PPI, otros
dicen que 1000, y la mayoría de usuarios nos conformamos con incluso menos de 200. Sea cual sea
ese punto, lo que es evidente es que llega cierto momento en el que deja de apreciarse una mayor
densidad de píxeles.
Es en este último punto en el que los fabricantes de paneles para monitor han estado haciendo
hincapié en los últimos tiempos, ya que -según Dolby- si se logra que incluso con el mismo número de
píxeles estos sean capaces de representar una gama dinámica mayor y con un espacio de color más
grande, se mejora la calidad de reproducción. Y en lo que a nosotros respecta no podríamos estar más
de acuerdo, ya que no todo es resolución cuando hablamos de calidad de imagen sino que en
términos de experiencia de usuario, influyen y mucho los FPS y las tecnologías asociadas, como el HDR
por ejemplo.
Mapa de bits
DEFINICIÓN DEMAPA DE BITS
Algunos conceptos pueden conocerse con distintos nombres, especialmente si se aceptan las
denominaciones de otras lenguas. Eso es lo que sucede con la noción de mapa de bits, que también
aparece mencionada como bitmap, pixmap, imagen matricial o imagen rasterizada. La idea de raster
proviene del latín rastrum (“rastrillo”), que a su vez deriva de radere (“raspar”).
Se trata de aquellas imágenes que se forman a partir de puntos, llamados píxeles dispuestos en un
rectángulo o tabla, que se denominada raster. Cada píxel contiene la información del color, la cual
puede o no contener transparencia, y ésta se consigue combinando el rojo, el verde y el azul.
Otro método para la representación digital de imágenes es el vectorial. Las diferencias entre ambos
son muchas. En principio, las imágenes vectoriales no tienen dimensiones absolutas, sino relativas.
Para dar un ejemplo práctico, supongamos que dibujamos un triángulo y que medimos las distancias
entre sus vértices; si quisiéramos ampliarlo, simplemente aplicaríamos la misma escala a cada una de
sus líneas, y obtendríamos la misma figura, sin ninguna deformación, sólo que más grande. En el caso
de los mapas de bits, esto resulta imposible, ya que la imagen existe como una única lista de puntos,
que no entienden de dimensiones, ángulos o ningún otro concepto matemático.
Antes de la aparición del 3d, los videojuegos se componían de mapas de bits, que eran generalmente
creados por artistas, píxel a píxel. Esta forma de arte es conocida como Pixel art, y ha sabido
mantener su popularidad aun en la era de la tercera dimensión, dada la creciente capacidad de los
ordenadores y consolas, que permiten bitmaps muy complejos y de colores variados e intensos. Pero
incluso en los años 80, cuando los recursos tecnológicos eran extremadamente limitados, los genios
del diseño han creado personajes cuya popularidad ha trascendido a pesar de estar formados por
píxeles; es el caso de Mario, Donkey Kong, Link, de la saga The Legend of Zelda, o Snake, de Metal
Gear.
Pixel y megapixel
¿Qué es un píxel?
Las comunicaciones no serían casi nada sin las imágenes. Incluso antes de que los negativos de las
películas y las impresiones fueran sustituidos por las técnicas de grabación electrónica en fotografía,
se habían desarrollado varios formatos de datos para los archivos de imágenes. Los más populares
fueron RAW, BMP y TIFF. Los desarrolladores no tardaron en darse cuenta de que estos formatos
producían tamaños de archivo considerables, que suponían un obstáculo especialmente para las
aplicaciones web rápidas. Esto, a su vez, condujo a la búsqueda de posibilidades relativas a
la compresión de imágenes. La “batalla” entre JPG y PNG está lejos de terminar, y ya están
apareciendo nuevos formatos en el horizonte – por ejemplo, WebP, el formato de imagen interno de
Google.
Pero hay un aspecto que todos estos ingeniosos formatos técnicos deben abordar: las imágenes
deben poder ser visualizadas en un medio de salida, empezando por una pantalla más o menos
grande con una determinada resolución. Aquí es donde entra en juego el término “picture cell” o
“celda de imagen”, una palabra inventada que se fusionó creando el término píxel y que se utilizó por
primera vez alrededor de 1965. En nuestra guía, descubrirás qué constituye un píxel y cuál es su
función en la representación de imágenes.
Índice
¿Qué es un píxel?
Seguridad máxima
Acceso compartido
Asistencia 24/7
窗体顶端
Continúa
窗体底端
¿Qué es un píxel?
El píxel -o px, para abreviar- es el elemento más pequeño de una imagen reproducida digitalmente. En
un monitor o en la pantalla de un teléfono móvil se suelen alinear varios píxeles en una trama. La
combinación de varios píxeles constituye una imagen rasterizada.
Una imagen en HD (1920 x 1080 píxeles) como imagen de trama, capturada con la cámara de un
smartphone y posteriormente recortada.
El ojo puede “descifrar” fácilmente el gráfico de trama compuesto. Sin embargo, se vuelve más difícil,
o incluso imposible, cuando la imagen del marco blanco se amplía.
Un recorte de la imagen anterior, ampliada en un 1600%, muestra claramente los píxeles de la trama.
Ahora ya no se puede descifrar lo que se muestra.
Subpíxel para la generación de un diseño de píxel. El tamaño de los subpíxeles está ahora muy por
debajo del rango de 0,1 mm.
El color de salida del píxel individual es una combinación de los valores de color de tres subpíxeles en
cada caso. Los tres colores se mezclan de forma aditiva y pueden, de este modo, asumir diferentes
valores. La mezcla aditiva significa superponer.
Los tres colores básicos del formato de color RGB con los valores RGB.
Si los tres colores primarios tienen el valor máximo de 255, la salida es en negro. Si RGB = 0/0/0,
aparece el blanco. Los valores intermedios permiten mostrar unos 16,7 millones de tonos de color
(2563).
Representación
del blanco y negro así como de un color seleccionado aleatoriamente en el formato de color RGB con
los valores necesarios para controlar los subpíxeles de un píxel de la imagen.
Imagen Vectoral
VENTAJAS DE LA IMAGEN VECTORIAL
Se pueden escalar sin riesgo a que pierdan nada de calidad.
Son la mejor opción para imprimir, ya que no pierden nada de calidad.
Al estar basadas en fórmulas matemáticas en vez de en píxeles, son capaces de almacenar la
información más compleja sin ocupar demasiado espacio.
Cuando vamos a diseñar el logo de nuestra empresa, una tarjeta de visita o llevar a cabo cualquier
otro tipo de diseño, nos encontramos con dos técnicas diferentes para crear, almacenar y procesar
imágenes digitales: la imagen de mapa de bits y la imagen vectorial.
Al trabajar con archivos de imágenes en Internet, la mayoría suelen tener un formato JPEG, GIF o
PNG, los cuales pertenecen a la imagen de mapa de bits, u otros formatos como el SVG o PDF, que
corresponden a la imagen vectorial.
Hasta aquí todo claro pero, ¿cuál es la diferencia entre la imagen de mapa de bits y la imagen
vectorial? Si no la sabes, presta atención y toma nota porque a continuación te contamos todo lo que
debes saber.
Eso sí, una imagen vectorial permite representar únicamente formas simples, lo que significa que no
todas las imágenes se pueden describir todas las imágenes con vectores.
A las imágenes vectoriales al estar compuestas por entidades matemáticas, se le pueden aplicar
transformaciones geométricas a la misma, como ampliar, expandir o reducir, sin que pierdan nada de
calidad, ya que continuaremos viendo las diferentes líneas y manchas de colores perfectamente
definidas.
Además, las vectoriales permiten definir una imagen con muy poca información, lo que hace que los
archivos tengan un tamaño bastante reducido.
Las imágenes de mapa de bits cuentan con una retícula perfectamente definida y, por tanto su calidad
se mantiene fija. Si se amplía o disminuye la imagen, vemos como los píxeles que la forman se
multiplican o dividen, lo que provoca una pérdida de calidad.
Por otro lado las imágenes vectoriales al estar basadas en fórmulas matemáticas, tienen una
resolución infinita, y por tanto se pueden ampliar o reducir sin riesgo de que su calidad baje.
Aunque hay casos en los que resulta realmente complicado distinguir entre imágenes vectoriales y
mapa de bits, si hacemos zoom sobre ellas nos resultará mucho más sencillo, ya que si nos
encontramos con una retícula de píxeles se tratará de mapa de bits, mientras que si la definición no
varía será vectorial.
En cambio la bitmap se utiliza más para fotografías o imágenes que tienen una buena resolución, pero
no resulta tan importante mantener la calidad al hacer zoom.
VECTORIZACIÓN Y RASTERIZACIÓN
Podemos convertir un mapa de bits en una imagen vectorial a través de un proceso denominado
vectorización. En función de la complejidad que tenga la imagen, podremos realizar la vectorización
con la ayuda de un programa o aplicación especial, o de manera manual si se trata de una imagen
muy compleja.
Conclusión
Con este post esperamos haber solucionado todas las posibles dudas que pudieras tener, y que te
haya quedado clara la diferencia entre mapa de bits e imagen vectorial.
Ya sabes que lo más importante es escoger el formato más adecuado en función del tipo de imagen
que se trate, siendo la imagen de mapa de bits la mejor opción para fotografías, y la imagen vectorial
para logotipos, iconos, infografías, etc.
Las imágenes de mapa de bits cuentan con una retícula perfectamente definida y, por tanto su calidad
se mantiene fija. Si se amplía o disminuye la imagen, vemos como los píxeles que la forman se
multiplican o dividen, lo que provoca una pérdida de calidad.
Por otro lado las imágenes vectoriales al estar basadas en fórmulas matemáticas, tienen una
resolución infinita, y por tanto se pueden ampliar o reducir sin riesgo de que su calidad baje.
Aunque hay casos en los que resulta realmente complicado distinguir entre imágenes vectoriales y
mapa de bits, si hacemos zoom sobre ellas nos resultará mucho más sencillo, ya que si nos
encontramos con una retícula de píxeles se tratará de mapa de bits, mientras que si la definición no
varía será vectorial.
Los colores RGB que vemos en el monitor pueden llegar a ser muy distintos a la hora de
imprimirse en el espacio de color CMYK. Pero hay formas de controlar los colores de tu obra y evitar
sorpresas a la hora de imprimir. Este tutorial explica los modos de color RGB y CMYK y ofrece consejos
imprescindibles para los artistas.
RGB
CMYK
Industria gráfica
Gráfica
Pintura digital
Cuando lees documentos o ves imágenes en un monitor, los colores están compuestos por el modo
de color RGB (Red, Green y Blue), porque todos los píxeles de un monitor están formados por esos
tres colores. En las imágenes impresas por una impresora de tinta doméstica o industrial, o una
imprenta offset, los colores se crean en CMYK (Cyan, Magenta, Yellow y Black), que son los colores de
las tintas que tiene la impresora. CLIP STUDIO PAINT incorpora ambos modos de color y es importante
diferenciarlos, pues siguen procesos distintos para reproducir los colores.
Nuestro sentido de la vista influye en cómo percibimos los colores. La retina, una membrana de
células nerviosas concentradas en la parte posterior del globo ocular, contiene dos tipos de células
fotorreceptoras: los conos y los bastones. Los bastones detectan los niveles de luz y los conos, de
color. Los conos pueden ser de tres tipos, según la longitud de onda a la que reaccionen: A la luz de
onda corta la llamamos “azul”, a la onda media “verde” y a la larga, “rojo”. En términos científicos, los
seres humanos somos tricromáticos.
Colores primarios aditivos: RGB
Gracias a la tricromía somos capaces de percibir los colores primarios aditivos. Dadas tres fuentes de
luz, si cada una emite una longitud de onda de forma que las tres abarquen todo el espectro visible,
percibiremos el color blanco. Si usamos fuentes de luz (colores luz), comenzamos desde la oscuridad
(negro) y vamos añadiendo luces de colores —de ahí el término “aditivo”. Para crear la luz blanca, se
suma la misma cantidad de cada uno de los tres colores primarios.
Los colores que percibimos dependen de la cantidad que estemos añadiendo de cada longitud de
onda. Como estamos añadiendo luz, asociamos los tres colores primarios aditivos a dispositivos que
emiten luz, como monitores o pantallas de televisión.
Primarios sustractivos: CMY + K
Los conos de nuestros ojos también perciben los colores primarios substractivos. Los colores
primarios sustractivos son el cian, el magenta y el amarillo, y se refieren al color que refleja una
superficie que absorbe luz blanca. En sistemas de impresión, dada una superficie blanca (un papel), se
añade tinta (o pintura) de color cian, magenta y amarillo hasta conseguir el tono negro.
Podemos decir que el amarillo es una especie de sustractor de ondas cortas, el magenta un sustractor
de ondas medias y el cian, de ondas largas.
Nota: No es posible conseguir un negro puro absoluto mezclando cian, magenta y amarillo, porque en
realidad ninguno de esos pigmentos es lo suficientemente puro. Lo máximo que conseguiremos es un
marrón muy oscuro. Por eso, al imprimir, se le añade el negro a los primarios. Se usa la letra “K” para
no confundirla con la “B” del azul. El negro, sin embargo, no es un color primario.
Espacio de color
Los tres colores primarios no solo nos ayudan a describir los colores, sino también nos sirven para
interpretar las relaciones entre los colores. Para ello, asignamos a cada primario un eje de
coordenadas en un espacio tridimensional.
A este sistema lo llamamos “espacio de color”. Hay espacios de color muy conocidos, como Adobe
RGB, sRGB (creado pensando en las webs), eciCMYK (FOGRA53; impresión), GRACol y SWOP.
Por ejemplo, Adobe RGB lo creó Adobe en 1998 y es un espacio de color RGB. Fue diseñado para
incluir la mayoría de los colores que se pueden conseguir en las impresoras CMYK pero usando los
colores primarios RGB que existen, por ejemplo, en la pantalla de un PC.
Abarca zonas específicas de gamas de colores utilizadas para la producción de material impreso a
partir de datos digitales, independientemente del proceso de impresión. Añaden, así, la capacidad de
prueba a las impresoras destinadas a este fin. Para saber más: https://www.fogra.org/en/fogra-
research/wc-digital-printing/digital-printing-current-projects/consolidating-standardization/
exchange-colour-space/new-cmyk-based-colour-exchange-space-fogra53-and-ecicmyk-released.html.
Nos interesa especialmente porque muchos modelos de color de la CIE (Comisión Internacional de la
Iluminación), como el CIELAB —en el que se basan la mayoría de los cálculos y conversiones de
gestión del color— incorporan aspectos de ambos modelos de retina.
RGB y CMYK en dispositivos digitales
Al reproducir el color en un dispositivo físico, ya sea un monitor, una película transparente o un folio
impreso, estamos manipulando los colores luz rojo, verde y azul.
En un dispositivo RGB real como un monitor, un escáner o una cámara digital, trabajamos
directamente con luces rojas, verdes y azules. En una impresión o en una película, también
manipulamos el rojo, el verde y el azul, pero lo hacemos de forma indirecta, valiéndonos de los
pigmentos CMY para sustraer esas ondas de un fondo blanco.
El color digital suele estar codificado para representar cantidades variables de R, G y B o de C, M y Y (y
K). Sin embargo, no son valores absolutos, ya que un archivo RGB o CMYK contiene una sola fórmula
de reproducción cromática que cada dispositivo interpreta de manera diferente. Si envías
exactamente el mismo archivo RGB a varios monitores o el mismo archivo CMYK a diferentes
imprentas, obtendrás imágenes diferentes. Algunas se parecerán entre sí, mientras que otras
presentarán claras diferencias en uno o más colores.
Los modelos RGB y CMYK no están pensados para que los colores se reproduzcan de manera idéntica
en dispositivos distintos. Para poner un ejemplo más real, imagina que compras dos botes de pintura
acrílica “rojo escarlata” con alta concentración de pigmento, siendo cada bote de un fabricante
distinto, pero ambos fabricantes venden esta pintura a grandes artistas. Estás comprando el mismo
color, ¿verdad? Pues aunque se llamen igual, no van a ser exactamente iguales. Ambos serán rojos,
pero la palabra “escarlata” seguramente no signifique lo mismo en la marca X que en la marca Y.
Un monitor LED corriente puede ofrecer las diferencias de brillo suficientes para que podamos
apreciar tonalidades en las sombras de una imagen.
En una impresora, podemos mejorar la densidad del color y del punto negro agregando la tinta negra
a los colorantes CMY, dando como resultado un punto negro neutro y un color negro mucho más
oscuro que el de la mezcla de C, M y Y.
Los puntos blanco y negro se localizan en los extremos de la reproducción cromática, pero un sistema
de gestión de color también necesita saber las características de reproducción de los tonos del
dispositivo.
Por eso a menudo nos encontramos con el término “curva de reproducción tonal” (TRC), una curva
que define la relación entre los valores de entrada y los valores de brillo resultantes en un dispositivo.
En monitores, escáneres y cámaras digitales, a esta curva la llamamos “curva gamma” o “curva de
corrección gamma”. En las impresoras se llama ganancia de punto o engrosamiento del punto.
De un dispositivo a otro
El rango dinámico de una impresora o de una prensa comprende desde el brillo del papel hasta el
negro más absoluto de la tinta. Algunos dispositivos (p. ej., una cámara DSLR) tienen un rango
dinámico muy amplio comparado con otros (p. ej., una impresora de inyección de tinta) que necesitan
comprimir la reproducción cromática de un rango mayor a uno más reducido.
A este proceso se le llama compresión tonal. También se da un problema cuando el gamut de un
dispositivo no contiene el mismo gamut que otro dispositivo. Un ejemplo de este caso es el monitor
de nuestro PC, que viene con un gamut más amplio que nuestra impresora y sin embargo no puede
reproducir algunos tonos de la tinta CMYK sobre el papel.
Para que estos colores sean visibles en un monitor o para que puedan imprimirse con la mínima
distorsión en la reproducción cromática, convertiremos la imagen mediante uno de estos cuatro
procesos llamados propósitos (o propuestas) de conversión:
Colorimétrico absoluto
El primero es el propósito colorimétrico absoluto. Este propósito de conversión vuelve a poner dentro
del gamut los colores que habían quedado fuera intentando que sufran la mínima variación y no toca
los colores que están dentro del gamut. Con este propósito de conversión, corremos el riesgo de
cambiar drásticamente algunos colores y de perder otros muchos. Este resultado se debe a que el
propósito incluye el color del papel. Además, algunos tonos de cian saturados y naranjas-amarillos
que se han conseguido en la impresión no pueden conseguirse fielmente en el monitor, por lo que el
monitor tiene que mostrar el blanco con valores inferiores a RGB 255, 255, 255, perdiendo así una
parte del rango dinámico.
Perfiles de color
Es un buen momento para hablar de los perfiles de color. Los perfiles de color son “descripciones” del
espacio de color, el gamut y el comportamiento de un dispositivo calibrado. En el mundo de la
imprenta profesional, los perfiles de color como “US Web Coated SWOP v2” son normas comunes
creadas por los grupos del sector.
Las imprentas calibran sus impresoras según una normativa sobre ese perfil, de modo que, cuando es
el perfil adecuado (consúltalo antes con la imprenta), tus colores encajarán con los que la impresora
puede reproducir.
— Colorimétrico relativo —
El segundo propósito de conversión es el colorimétrico relativo. Incluye los colores que no encajan en
el gamut desaturándolos, pero sin cambiarles el tono (siempre que sea posible, puesto que no todos
los colores pueden entrar en el gamut sin cambiarlos). La mayoría de los programas reproducen los
colores de esta forma. El blanco del papel se traduce al blanco del monitor y los demás se calculan
tomándolo como referencia. Sin embargo, esto no muestra el efecto que tiene el blanco del papel en
el tono general.
Propósito perceptual
El tercer propósito de conversión es el perceptual. Comprime el gamut para que encaje en el gamut
de destino, pero mantiene, en la medida de lo posible, las posiciones cromáticas relativas originales.
Se desatura casi todo, pero las relaciones entre los colores quedan intactas. Es decir, se pierde
intensidad pero todo lo demás se conserva.
Propósito de saturación
El último propósito de conversión es el de saturación. Se comporta como un propósito perceptual,
pero actuando más sobre los colores que están fuera que en el gamut de destino, manteniendo así,
todo lo posible, la saturación de los colores.
El propósito de reproducción de la saturación se usa sobre todo en los logotipos corporativos y
gráficos similares, como los que tienen colores Pantone y otros “colores suplementarios”.
En el mundo de la fotografía, el perceptual es el propósito más común.
Cuándo usar CMYK y cuándo usar RGB para la salida
Llamamos impresoras “true RGB” a aquellas como la LumeJet S200, cuyos cabezales están basados en
luces LED. A través de un cono de fibra que actúa como una lente, la impresora alcanza una resolución
de 4000 ppp. Cada haz de luz de fibra óptica crea una mancha roja, verde o azul del tamaño de una
partícula de haluro de plata, material fotosensible presente en el papel de impresión. Se usa
principalmente —o casi exclusivamente— en la impresión de álbumes fotográficos.
No hay muchas impresoras true RGB y, en el momento de escribir este artículo, la LumeJet S200 ya no
está en el mercado. Lo cierto es que no conozco otras impresoras de este tipo.
La mayoría de las impresoras, incluyendo nuestras impresoras domésticas de tinta, son en realidad
CMYK. A la hora de imprimir con una impresora de tinta, lo normal es usar el controlador de
impresora del fabricante. Para imprimir una imagen desde un programa, este controlador convierte
los datos RGB de la imagen en CMYK. Como el controlador está desarrollado por el propio fabricante,
la reproducción de los colores y la aplicación de la tinta serán las programadas por el fabricante.
Darán, por lo tanto, unos buenos resultados.
— Controlador Epson RGB en un Mac —
Sin embrago, si queremos tener más control sobre la cantidad de tinta que se usará para cada color o
ampliar todo lo posible el rango dinámico de la impresora, puede que sea mejor usar PostScript RIP.
Un RIP (abreviatura de Raster Image Processor o procesador de imágenes ráster) ignora el
controlador RGB/CMYK y permite al usuario controlar directamente no solo los inyectores C, M, Y y K,
sino también todo el sistema de impresión. El RIP nos permite manipular el proceso de impresión
igual que un profesional configura su impresora de pruebas. Con un RIP podemos controlar aspectos
como la representación del color, la densidad y la cantidad de tinta que sale de cada inyector.
Sin embargo, con un RIP Postscript primero hay que calibrar y linealizar la impresora para construir
después su perfil básico, teniendo además un solo perfil de salida para cada combinación de tinta y
papel. Para hacerlo necesitamos un espectrómetro (como, por ejemplo, el X-Rite i1Pro), que nos
ofrece un control total sobre los colores impresos en cualquier papel específico y la posibilidad de
ajustar correctamente los colores en pantalla.
Hasta aquí nuestra introducción al RGB, CMYK y a la gestión de color.