Documentos de Académico
Documentos de Profesional
Documentos de Cultura
UNAD Computacion Grafica PDF
UNAD Computacion Grafica PDF
COMPUTACION GRAFICA
UNAD 2017
Universidad Nacional Abierta y a Distancia – UNAD
Vicerrectoría Académica y de Investigación - VIACI
Escuela: Escuela De Ciencias Básicas Tecnología E Ingeniería Programa: Ingeniería de Sistemas
Curso: Computación Gráfica Código: 299210
En este capítulo se realiza una inspección histórica de los principales antecedentes e hitos
que marcan el desarrollo de la representación computacional. Para ello se ha utilizado
especialmente una síntesis presentada por el profesor Víctor Simón Theoktisto Costa de la
Universidad de Simón Bolívar de Venezuela.
La sabiduría popular dice que la historia no se repite y que el pasado no aplica exactamente
al presente. Las recetas del pasado, si se aplican ahora resultan en general en algo
diferente. ¿Cómo entonces inferir del pasado? ¿Cómo lograr un modelo de la evolución que
pueda ayudar a saber y entender lo que está pasando ahora en el presente y poder tomar
las acciones adecuadas y necesarias?
En tecnología está siempre la tendencia de mirar el futuro, pero muchos de sus elementos,
así como la mayoría de las cosas, tienen sus fundamentos y su significado en el pasado
que siguen actuando en el presente.
Esta síntesis se plantea desde la perspectiva histórica presentada por Baecker y Buxton en
"Human-Computer Interaction" de Jenny Preece y Laurie Keller (ver en enlaces
relacionados de la unidad), para quizás entender o apreciar a donde hemos llegado, para
inspirarnos o motivarnos a dar nuevos pasos que puedan continuar un camino ya
comenzado por otros o quizás por qué no, poder aportar nuevas luces.
información, y el valor del indexamiento asociativo en esa actividad, sino también anticipó
la naturaleza multimedia del uso del computador en el futuro. El predijo el desarrollo de
una máquina que escribiera cuando se le dictara, y especuló sobre las posibilidades de
establecer algún día un camino más directo entre la palabra escrita y el cerebro. Con la
emergencia de los CD/ROM (Lambert and Ropiequet 1986) y la computación multimedia
personal de hoy se hace posible construir el MEMEX, el cual no se llegó a realizar en su
momento.
Otras personas también vieron el potencial del computador como un facilitador de aspectos
humanos como la creatividad y la resolución de problemas. Entre éstos tenemos a J.C.R.
LICKLIDER (1960), quien concibió un acoplamiento sinergético entre las capacidades del
hombre y la máquina, a lo que llamó "man-computer symbiosis". La simbiosis se define
como una forma de vida cooperativa en una asociación íntima o unión cerrada entre dos
organismos disimilares. Las computadoras están pensadas para resolver problemas ya
formulados y para procesar datos de acuerdo a procesos predeterminados. En la realidad
aparecen giros inesperados en el razonamiento para llegar a una solución y no siempre es
fácil la formulación del problema; la simbiosis del hombre y la máquina pretendería
entonces incorporar a la computadora de manera íntima en todo el proceso de formulación
y solución de problemas técnicos, logrando así integrarse efectivamente en los procesos
del pensamiento.
En un trabajo posterior con Clark en 1962, ellos listan aplicaciones en el área militar,
programación, juegos de guerra, planificación, educación, investigación científica. Con una
extraordinaria visión listan algunos problemas cuyas soluciones son prerrequisitos para
una verdadera simbiosis entre el hombre y la computadora.
A corto plazo:
La posibilidad de concurrencia.
Universidad Nacional Abierta y a Distancia – UNAD
Vicerrectoría Académica y de Investigación - VIACI
Escuela: Escuela De Ciencias Básicas Tecnología E Ingeniería Programa: Ingeniería de Sistemas
Curso: Computación Gráfica Código: 299210
A largo plazo:
La programación heurística.
Ya en los años 50‟s era obvio que el computador podía manipular imágenes son gráficos y
dibujos tan bien como el texto o los números (oscillon, wirlwind, el juego spacewar y sage
ya se habían construido). Se comienza entonces a explorar el potencial de la comunicación
gráfica entre el hombre y la máquina. Fue IVAN SUTHERLAND en su trabajo pionero en el
MIT Lincoln Laboratory llamado el sistema 'Sketchpad'.
• El uso de los lápices de luz ("light pen") para la construcción interactiva de los
dibujos.
No pasó mucho tiempo sin que las compañías se empezaran a interesar por las gráficas en
computadora, IBM, por ejemplo, lanzó al mercado la IBM 2250, la primera computadora
comercial con un sistema gráfico. La compañía Magnavox, a su vez obtuvo la licencia para
distribuir un sistema de videojuegos creado por Ralph Baer, el producto fue denominado
Odyssey. El Odyssey fue el primer producto orientado al consumidor con gráficas
generadas por computador.
Dave Evans fue contratado por la universidad de Utah para crear el laboratorio de ciencias
de la computación. Evans tomó como interés principal el desarrollar gráficas por
computadora. Evans contrató a Sutherland, y es en Utah donde Sutherland perfecciona
una interfaz de HMD (head mounted display), que había desarrollado algunos años antes.
En ese periodo, Evans y Sutherland eran frecuentemente asesores de compañías, no
obstante, constantemente se encontraban frustrados por la falta de tecnología, razón que
más adelante los llevó a fundar su propia empresa.
universidad de Utah no es menos notorio, Jim Clark, fundador de Silicon Graphics Inc.
(SGI).
1970 también marcó una revolución en el mercado televisivo. Cadenas como la CBS
empezaron a usar productos desarrollados para animar en la computadora. La empresa
Computer Image Corporation (CIC) desarrolló combinaciones de Hardware y Software para
acelerar procesos de animación tradicional, por medios digitales. CIC ofrecía ANIMAC,
SCANIMATE y CAESAR, con estos programas se podían escanear los dibujos, crear
trayectorias, aplicar principios de animación tradicional tales como estiramiento y
encogimiento.
El matemático francés Dr. BENOIT MANDELBROT publicó un ensayo que permitió añadir
realismo a las escenas generadas por computadora. El documento "A Theory of Fractal
Sets", explica que una línea es un objeto unidimesional, el plano es un espacio
bidimensional; no obstante, si la línea describe una curva de manera que cubra la superficie
del plano deja de ser unidimensional, aunque tampoco es bidimensional.
El NYIT creó un departamento dedicado a la investigación de gráficas 3D, y por dos años
su principal proyecto fue el de crear una película, "the works", nunca fue concluida, de
hecho, pruebas preliminares fueron bastante desalentadoras. Ante el fracaso del corto
"Tubby the tuba", varios empleados salieron del NYIT. Al parecer el director del instituto
nunca aceptó que se contrataran directores de cine para crear la película, razón por la cual
el resultado no era el mejor que se podía haber obtenido
Tomado de:
http://sabia.tic.udc.es/gc/Contenidos%20adi
cionales/trabajos/Interfaces/escritorios%20
3D/bump_mapping.jpg
Lección 4 La revolución
Sin duda la década de cambios más vertiginosos fue la de 1980. El surgimiento de las
máquinas PC, aunque con capacidades gráficas limitadas, permitió la popularización de
sistemas y aplicaciones que crearon un mercado exigente y competitivo (por ejemplo, con
el Autocad). También comenzaron a diseñarse herramientas gráficas de interfaz hombre
máquina, como por ejemplo el sistema operativo de la Macintosh II, los lenguajes de
programación visual y el hipertexto. El rol que no alcanzaron a cumplir los Comités de
estandarización (por ejemplo, el GSK fue aprobado recién en 1985, cuando hacía varios
años que ya era obsoleto) fue cubierto por las compañías comerciales que al crear una
aplicación novedosa se transformaban en estándares de facto en el mercado (por ejemplo,
el Poscript, el OpenGL y X Windows).
También esta década marcó el segundo cambio de paradigma, porque la evolución de los
modelos gráficos, junto con la capacidad de representación de los monitores y la
integración de los sistemas gráficos a otro tipo de aplicaciones (simulaciones en ingeniería,
sensores remotos, datos de satélites, etc.) permitió desarrollar herramientas para la
representación gráfica de conjuntos enormemente complejos de datos. Estas ideas, que
con el tiempo fueron el fundamento de la Visualización Científica, apelan a la enorme
capacidad de comprensión visual humana. De esa manera es posible representar, por
ejemplo, millones de datos meteorológicos en un único gráfico que permite comprender a
golpe de vista las características esenciales de una determinada situación climática.
La popularización de la computación
gráfica significó, además, el surgimiento y
desarrollo de aplicaciones en las áreas
más diversas. Durante los ´80
comenzaron a utilizarse herramientas
gráficas para el diseño en Ingeniería en
todas sus actividades, desde aviones y
barcos hasta circuitos integrados. En
Arquitectura e Ingeniería Civil se utilizan
sistemas para la simulación, el diseño y la
elaboración y análisis de modelos. En
Medicina podemos mencionar desde el
Figura 5 Computación gráfica en diferentes ámbitos diagnóstico por imágenes hasta la
simulación y planeamiento de operaciones
Tomado de:
quirúrgicas o el desarrollo de implantes.
http://sabia.tic.udc.es/gc/Contenidos%20adicionales/
trabajos/Interfaces/escritorios%203D/
Universidad Nacional Abierta y a Distancia – UNAD
Vicerrectoría Académica y de Investigación - VIACI
Escuela: Escuela De Ciencias Básicas Tecnología E Ingeniería Programa: Ingeniería de Sistemas
Curso: Computación Gráfica Código: 299210
Durante los 90‟s, Hollywood proporciona una gran publicidad gracias a la producción de
largometrajes totalmente computarizados, ya habían sido premiados algunos cortos de
Pixar con anterioridad. El pionero en largometrajes animados por computador es Toy
History y a partir de allí se han generado gran cantidad de películas. El reto continúa, por
hacer creíbles para los humanos, los gráficos creados por computador.
En los años 50: Salida usando teletipos, impresoras, y tubos de rayos catódicos (CRT).
Usando caracteres blanco y negro, se podía reproducir un cuadro.
• 1950
o Ben Laposky creó las primeras imágenes gráficas, un osciloscopio, generado por
una máquina electrónica (análoga). La imagen fue producida manipulando vigas
electrónicas y registrándolas sobre una película alta de la velocidad.
Universidad Nacional Abierta y a Distancia – UNAD
Vicerrectoría Académica y de Investigación - VIACI
Escuela: Escuela De Ciencias Básicas Tecnología E Ingeniería Programa: Ingeniería de Sistemas
Curso: Computación Gráfica Código: 299210
• 1951
En los años 60: El comienzo de los gráficos interactivos modernos, salida son gráficos
vectoriales y gráficos interactivos. Uno de los grandes problemas era el costo y la
inaccesibilidad de las máquinas.
• 1960
• 1961
• 1963
Menús pop-up
Modelamiento jerárquico
• 1964
• 1965
• 1968
• 1969
Al inicio de los años 70: Comienzo de la salida usando dispositivos ráster, la capacidad de
los gráficos es cada vez mayor.
• 1972
• 1973
o Juan Whitney Jr. y Gary Demos - "Westworld", primera película con gráficos de
computador
• 1974
• 1975
• 1976
• 1977
Universidad Nacional Abierta y a Distancia – UNAD
Vicerrectoría Académica y de Investigación - VIACI
Escuela: Escuela De Ciencias Básicas Tecnología E Ingeniería Programa: Ingeniería de Sistemas
Curso: Computación Gráfica Código: 299210
• 1979
En los años 80 los dispositivos de salida incorporan los gráficos de ráster imágenes de
mapas de bit (bitmap) y el pixel. Los costos de los computadores personales decrecen
dramáticamente, el ratón y el trackball se convierten en los dispositivos interactivos
estándares.
• 1982
o Steven Lisberger - "Tron", la primera película de Disney que hace uso intensivo
de los gráficos tridimensionales
• 1983
o Jaron Lanier - "DataGlove", una película de realidad virtual que usa un guante
instalado con interruptores y sensores para detectar el movimiento de la mano.
• 1984
• 1985
• 1987
• 1989
En los años 90, desde la introducción del VGA y el SVGA, el computador personal puede
mostrar fácilmente imágenes fotorealistas y películas. La optimización de las imágenes en
3D comienza su principal avance estimuladas por las aplicaciones para gráficos usadas en
el cine.
• 1990
• 1991
o Disney y Pixar - “Beauty and the Beast”, CGI fue ampliamente utilizada, el
sistema Renderman proporciona rapidez, precisión y alta calidad a los efectos
por computador.
• 1992
• 1993
o Steven Spielberg - “Jurassic Park” una exitosa película de ciencia ficción a partir
de efectos de computación gráfica.
• 1995
• 2003
Cuanto mayor y más nítida sea una imagen y cuantos más colores tenga, más difícil es de
presentar y manipular en la pantalla de un computador. Las fotografías, dibujos y otras
imágenes estáticas deben pasarse a un formato que el computador pueda manipular y
presentar. Entre esos formatos están los gráficos de mapas de bits (o de píxeles), conocido
en el ámbito de la computación gráfica como ráster y los gráficos vectoriales.
Las imágenes de mapa de bits (bitmaps o imágenes ráster) están formadas por una rejilla
de celdas, a cada una de las cuales, denominada píxel (Picture Element, Elemento de
Imagen), se le asigna un valor de color y luminancia propios, de tal forma que su
agrupación crea la ilusión de una imagen de tono continuo.
Un píxel es pues una unidad de información, pero no una unidad de medida, ya que no se
corresponde con un tamaño concreto. Un píxel puede ser muy pequeño (0.1 milímetros) o
muy grande (1 metro).
Una imagen de mapa de bits se crea mediante una rejilla de pixeles única. Cuando se
Universidad Nacional Abierta y a Distancia – UNAD
Vicerrectoría Académica y de Investigación - VIACI
Escuela: Escuela De Ciencias Básicas Tecnología E Ingeniería Programa: Ingeniería de Sistemas
Curso: Computación Gráfica Código: 299210
modifica su tamaño, se modifican grupos de pixeles, no los objetos o figuras que contiene,
por lo que estos suelen deformarse o perder alguno de los pixeles que los definen. Por lo
tanto, una imagen de mapa de bits está diseñada para un tamaño determinado, perdiendo
calidad si se modifican sus dimensiones, dependiendo esta pérdida de la resolución a la
que se ha definido la imagen.
Una vez definida la resolución de pantalla, el tamaño de los pixeles dependerá del tamaño
físico de la pantalla, medido en pulgadas. En la próxima sección se profundizará sobre este
punto.
Una forma común de clasificar las imágenes según su resolución es aquella que las divide
en imágenes de alta resolución (hi-res) e imágenes de baja resolución (low- res). Una
imagen de alta resolución está prevista para la impresión, teniendo generalmente 300 ppp
o más. Una imagen de baja resolución está prevista solamente para su exhibición en
pantalla, teniendo generalmente una resolución de 100 ppp o menos.
A mayor resolución, más píxeles hay en una imagen, más grande es su mapa de bits,
mayor información contiene y mayor capacidad de distinguir los detalles espaciales finos,
por lo que tendrá más definición, permitiendo un mayor detalle, unas transiciones de color
más sutiles y una mayor calidad de reproducción.
Las imágenes de mapas de bits dependen de la resolución a la que han sido creadas, por
lo que al modificar su tamaño pierden calidad visual. Si se disminuye, los trazos finos
perderán definición, desapareciendo partes de los mismos, mientras que, si se aumenta,
la imagen se pixelará, al tener que cubrirse de forma aproximada pixeles que inicialmente
no existían, produciéndose el conocido efecto de dientes de sierra.
los archivos que generan. Se hace por tanto necesaria la compresión de estos archivos.
Un gráfico vectorial está definido por un conjunto de primitivas geométricas de tal modo
que, al dibujarlas, se compone la imagen final.
Por lo tanto, las imágenes en los gráficos vectoriales no se construyen píxel a píxel, sino
que se forman a partir de vectores, objetos formados por una serie de puntos y líneas
rectas o curvas definidas matemáticamente.
Por ejemplo, una línea se define en un gráfico de mapa de bits mediante las propiedades
de cada uno de los píxeles que la forman, mientras que en un gráfico vectorial se hace por
la posición de sus puntos inicial y final y por una función que describe el camino entre ellos.
Análogamente, un círculo se define vectorialmente por la posición de su punto central
(coordenadas x,y) y por su radio (r).
Cada vector en un gráfico vectorial tiene una línea de contorno, con un color y un grosor
determinados, y está relleno de un color a elegir. Las características de contorno (o filete)
y relleno se pueden cambiar en cualquier momento.
Las imágenes vectoriales se almacenan como una lista que describe cada uno de sus
vectores componentes, su posición y sus propiedades.
Las entidades geométricas que forman parte de un gráfico vectorial son: el segmento de
recta, las circunferencias, las elipses, y los arcos de circunferencia.
Las trasformaciones típicas sobre las imágenes vectoriales son la traslación, la rotación, el
escalado y la cizalla. Estas transformaciones, puramente geométricas, se muestran en la
siguiente figura. Después de aplicarlas el objeto gráfico conserva su precisión
Según Delrieux, el primer paso para conseguir una representación adecuada de las
primitivas es caracterizar matemáticamente el medio que nos permite representarlas. Las
primitivas gráficas independientes de dispositivo (en la “imagen” mental del usuario)
normalmente se representan en un espacio euclidiano de una determinada dimensión. En
dichas condiciones un punto es una entidad matemática p = (x; y), donde (x;y) R2.
Por último, en el soporte gráfico del buffer de pantalla, un punto se representa con un
pixel, y dicha representación se efectúa accesando una posición de memoria con un
contenido dado. Este espacio se denomina espacio de pantalla y se direcciona a partir del
sistema de coordenadas físico, cuyo origen es el vértice superior izquierdo. Es posible
encontrar varias correspondencias posibles entre el sistema de coordenadas físico y un
sistema de coordenadas arbitrario en el espacio de la escena. En la literatura normalmente
se considera que un pixel es un “punto con extensión" en el espacio de la escena, y por lo
tanto el origen de dicho espacio coincide con el vértice superior izquierdo del pixel (0,0).
Como se muestra en la siguiente figura. Una precisión mayor llevaría a enunciar que se
encuentra en el centro del pixel (0.0).
Universidad Nacional Abierta y a Distancia – UNAD
Vicerrectoría Académica y de Investigación - VIACI
Escuela: Escuela De Ciencias Básicas Tecnología E Ingeniería Programa: Ingeniería de Sistemas
Curso: Computación Gráfica Código: 299210
Los colores forman parte de la vida misma, y el ser humano es uno de los seres
privilegiados de la Naturaleza por poder disfrutar de ellos. En cualquier momento de la vida
se están recibiendo constantemente impresiones de color, en la calle, trabajando,
navegando por internet, estas impresiones tienen la facultad de exaltar, tranquilizar, de
poner de buen humor o de inspirar pena. Es el mundo de color.
Figura 13 Espectro con los 6 colores apreciados por Newton (violeta, azul, verde, amarillo, naranja y rojo)
Unos años más tarde, el físico inglés Thomas Young realizó el experimento a la inversa. En
primer lugar, determinó por investigación que los seis colores del espectro pueden quedar
reducidos a tres colores básicos: el verde, el rojo y el azul intenso. Tomó entonces tres
linternas y proyectó tres haces de luz a través de filtros de los colores mencionados,
haciéndolos coincidir en un mismo espacio; los haces verde, rojo y azul se convirtieron en
luz blanca. En otras palabras, Young recompuso la luz.
Así, la luz blanca, esa luz que rodea al ser humano, está formada por luz de seis colores;
y cuando incide en algún cuerpo éste absorbe alguno de dichos colores y refleja otros. Esto
da lugar al siguiente principio: Todos los cuerpos opacos, al ser iluminados, reflejan todos
o parte de los componentes de la luz que reciben.
En la práctica, y para comprender mejor este fenómeno, se dirá que, por ejemplo, un
tomate rojo absorbe el verde y el azul y refleja el rojo; y un plátano amarillo absorbe el
Universidad Nacional Abierta y a Distancia – UNAD
Vicerrectoría Académica y de Investigación - VIACI
Escuela: Escuela De Ciencias Básicas Tecnología E Ingeniería Programa: Ingeniería de Sistemas
Curso: Computación Gráfica Código: 299210
color azul y refleja los colores rojo y verde, los cuales, sumados, permiten ver el color
amarillo.
El color es una sensación subjetiva y nadie puede asegurar a ciencia cierta que percibe los
colores igual que otro. De todas formas, los hombres vemos más o menos igual y partiendo
de esta premisa se deberá estudiar la teoría del color.
Podemos ver las cosas que nos rodean porque La Tierra recibe la luz del Sol, esta estrella
inunda constantemente el planeta con su luz, y gracias a ella es también posible la vida.
La luz del Sol está formada en realidad por un amplio espectro de radiaciones
electromagnéticas de diferentes longitudes de onda, formando un espectro continuo de
radiaciones, que comprende desde longitudes de onda muy pequeñas, de menos de 1
picómetro (rayos cósmicos), hasta longitudes de onda muy grandes, de más de 1
kilómetro.
El ser humano tan solo es capaz de visualizar un subconjunto de ellas, las que van desde
380 (violeta) a 780 nanómetros (rojo), esto lo apreció Newton en su experimento.
Cada longitud de onda define un color diferente (colores de emisión). La suma de todos
los colores (longitudes de onda) da como resultado la luz blanca, siendo el color negro u
oscuridad la ausencia de colores.
En el fondo del ojo existen millones de células especializadas en detectar las longitudes de
onda procedentes del entorno. Estas células, principalmente los conos y los bastoncillos,
recogen las diferentes partes del espectro de luz solar y las transforman en impulsos
eléctricos, que son enviados luego al cerebro a través de los nervios ópticos, siendo éste
Universidad Nacional Abierta y a Distancia – UNAD
Vicerrectoría Académica y de Investigación - VIACI
Escuela: Escuela De Ciencias Básicas Tecnología E Ingeniería Programa: Ingeniería de Sistemas
Curso: Computación Gráfica Código: 299210
Los conos se concentran en una región cerca del centro de la retina llamada fóvea. Su
distribución sigue un ángulo de alrededor de 2° contados desde la fóvea. La cantidad de
conos es de 6 millones y algunos de ellos tienen una terminación nerviosa que va al
cerebro.
Los conos son los responsables de la visión del color y se cree que hay tres tipos de conos,
sensibles a los colores rojo, verde y azul, respectivamente. Dada su forma de conexión a
las terminaciones nerviosas que se dirigen al cerebro, son los responsables de la definición
espacial. También son poco sensibles a la intensidad de la luz y proporcionan visión fotópica
(visión a altos niveles).
Debido a que el proceso de identificación de colores depende del cerebro y del sistema
ocular de cada persona en concreto, es posible medir con toda exactitud la longitud de
onda de un color determinado, pero el concepto del color producido por ella es totalmente
subjetivo, dependiendo de la persona en sí. Dos personas diferentes pueden interpretar un
color dado de forma diferente, y puede haber tantas interpretaciones de un color como
personas hay.
No es necesaria la unión de todas las longitudes del espectro visible para obtener el blanco,
ya que si se mezcla sólo rojo, verde y azul se obtiene el mismo resultado. Es por esto por
lo que estos colores son denominados colores primarios, porque la suma de los tres
produce el blanco. Además, todos los colores del espectro pueden ser obtenidos a partir
de ellos.
Universidad Nacional Abierta y a Distancia – UNAD
Vicerrectoría Académica y de Investigación - VIACI
Escuela: Escuela De Ciencias Básicas Tecnología E Ingeniería Programa: Ingeniería de Sistemas
Curso: Computación Gráfica Código: 299210
Los colores aditivos son los usados en trabajo gráfico con monitores de ordenador, ya que
el monitor produce los puntos de luz partiendo de tres tubos de rayos catódicos, uno rojo,
otro verde y otro azul. Por este motivo, el modelo de definición de colores usado en trabajos
digitales es el modelo RGB (Red, Green, Blue).
Todos los colores que se visualizan en el monitor están en función de las cantidades de
rojo, verde y azul utilizadas. Por ello, para representar un color en el sistema RGB se le
asigna un valor entre 0 y 255 (notación decimal) o entre 00 y FF (notación hexadecimal)
para cada uno de los componentes rojo, verde y azul que lo forman. Los valores más altos
de RGB corresponden a una cantidad mayor de luz blanca. Por consiguiente, cuanto más
altos son los valores RGB, más claros son los colores.
#RRGGBB. El color rojo puro, por ejemplo, se especificará como (255,0,0) en notación
RGB decimal y #FF0000 en notación RGB hexadecimal, mientras que el color rosa claro
dado en notación decimal por (252,165,253) se corresponde con el color hexadecimal
#FCA5FD.
Universidad Nacional Abierta y a Distancia – UNAD
Vicerrectoría Académica y de Investigación - VIACI
Escuela: Escuela De Ciencias Básicas Tecnología E Ingeniería Programa: Ingeniería de Sistemas
Curso: Computación Gráfica Código: 299210
Tomado de:
http://3.bp.blogspot.com/_JMtBrmXz8ck/TMtz1fv_dkI/AAAAAAAAABY/w8DDTw9WsGU/s1600/modelo_rgb.gif
Esta forma aditiva de percibir el color no es única. Cuando la luz solar choca contra la
superficie de un objeto, éste absorbe diferentes longitudes de onda de su espectro total,
mientras que refleja otras. Estas longitudes de onda reflejadas son precisamente las
causantes de los colores de los objetos, colores que por ser producidos por filtrado de
longitudes de onda se denominan colores sustractivos.
Este fenómeno es el que se produce en pintura, donde el color final de una zona va a
depender de las longitudes de onda de la luz incidente reflejadas por los pigmentos de
color de la misma.
Un coche es de color azul porque absorbe todas las longitudes de onda que forman la luz
solar, excepto la correspondiente al color azul, que refleja, mientras que un objeto es
blanco porque refleja todo el espectro de ondas que forman la luz, es decir, refleja todos
los colores, y el resultado de la mezcla de todos ellos da como resultado el blanco. Por su
parte, un objeto es negro porque absorbe todas las longitudes de onda del espectro: el
negro es la ausencia de luz y de color.
En esta concepción sustractiva, los colores primarios son otros, concretamente el cian, el
magenta y el amarillo. A partir de estos tres colores es posible obtener casi todos los
demás, excepto el blanco y el negro.
El sistema CMYK, define los colores de forma similar a como funciona una impresora de
Universidad Nacional Abierta y a Distancia – UNAD
Vicerrectoría Académica y de Investigación - VIACI
Escuela: Escuela De Ciencias Básicas Tecnología E Ingeniería Programa: Ingeniería de Sistemas
Curso: Computación Gráfica Código: 299210
Los colores sustractivos son usados en pintura, imprenta y, en general, en todas aquellas
composiciones en las que los colores se obtienen mediante la reflexión de la luz solar en
mezclas de pigmentos (tintas, óleos, acuarelas, etc.). En estas composiciones se obtiene
el color blanco mediante el uso de pigmentos de ese color (pintura) o usando un soporte
de color blanco y dejando sin pintar las zonas de la composición que deban ser blancas
(imprenta).
Los sistemas RGB y CMYK se encuentran relacionados, ya que los colores primarios de uno
son los secundarios del otro (los colores secundarios son los obtenidos por mezcla directa
de los primarios).
Otro modelo de definición del color es el modelo HSV o HSB, que define los colores en
función de los valores de tres importantes atributos de estos, matiz (Hue), saturación
(Saturation) y brillo (Value).
Universidad Nacional Abierta y a Distancia – UNAD
Vicerrectoría Académica y de Investigación - VIACI
Escuela: Escuela De Ciencias Básicas Tecnología E Ingeniería Programa: Ingeniería de Sistemas
Curso: Computación Gráfica Código: 299210
El matiz del color (Hue), también conocido como tono es el color en sí mismo, supone su
cualidad cromática, es -simplemente- un sinónimo de color. Es la cualidad que define la
mezcla de un color con blanco y negro. Está relacionado con la longitud de onda de su
radiación. Según su tonalidad se puede decir que un color es rojo, amarillo, verde.
La saturación está relacionada con la pureza cromática o falta de dilución con el blanco.
Constituye la pureza del color respecto al gris, y depende de la cantidad de blanco
presente. Cuanto más saturado está un color, más puro es y menos mezcla de gris posee.
Figura 20 Saturación
El brillo (Value) o brillantez tiene que ver con la intensidad o el nivel de energía. Es la
luminosidad de un color (la capacidad de reflejar el blanco. Alude a la claridad u oscuridad
de un tono. Es una condición variable, que puede alterar fundamentalmente la apariencia
de un color. La luminosidad puede variar añadiendo negro o blanco a un tono.
Universidad Nacional Abierta y a Distancia – UNAD
Vicerrectoría Académica y de Investigación - VIACI
Escuela: Escuela De Ciencias Básicas Tecnología E Ingeniería Programa: Ingeniería de Sistemas
Curso: Computación Gráfica Código: 299210
El color en las tarjetas gráficas, como vimos, se representa por medio del espacio cromático
RGB. Esto significa que el color de cada pixel se representa por medio de una terna de
valores de las componentes en rojo, verde y azul, respectivamente, que tiene dicho color.
Si cada pixel tiene asignada memoria para sus componentes RGB, se trata del modo true
color. En cambio, si el pixel guarda un índice a una entrada en una tabla de colores donde
está definido el color del cual está pintado el pixel, estamos en modos gráficos más
económicos.
En dichos modos, el acceso del índice del color de un pixel se efectúa según la aplicación
utilizada para diseñar el gráfico. Por ejemplo, en C gráfico esta asignación se realiza por
medio de la sentencia putpixel(x,y,c), mientras que asignar una entrada en la tabla de
colores se realiza por medio de la sentencia setrgbpalette(c,r,g,b). En dicho modelo se
utiliza la sentencia putpixel(x,y,c) para acceder al buffer de pantalla y dibujar un pixel en
la posición x, y con el índice de color c, con x, y, c de tipo entero. En Java la instrucción
Color micolor = new Color(r,g,b) define una objeto de la clase Color cuya coloración estará
definida por los valores de sus parámetros enteros r, g, b. A su vez, para dibujar un pixel
en el dispositivo gráfico actual no se define un método, pero es posible realizarlo a partir
del método drawRect(x,y, 0, 0) de la clase Graphics. Este método dibuja un rectángulo con
0 pixeles de ancho y 0 pixeles de alto en la coordenada precisada por x, y (que son
enteros), el resultado final de este método es el dibujo de un pixel en la ventana de
gráficos.
En los modos gráficos VGA y super VGA, los parámetros r, g, b son de tipo unsigned int,
pero se truncan los dos bits menos significativos, dado que el rango efectivo de cada
componente es de 0 a 63. Por lo tanto, es conveniente utilizar una aritmética dentro de
dicho rango para representar los colores, y multiplicar por 4 en el momento de la llamada.
Los modos gráficos VGA y SVGA permiten definir en general 256 colores simultáneos
(“paleta” gráfica) de entre 256K colores posibles. Estas posibilidades pueden ser, en
algunos casos, poco satisfactorias, no sóolo porque la paleta sea limitada, sino porque los
colores son definibles con poca precisión en algunos casos. Si bien el ojo humano detecta
aproximadamente 350.000 colores diferentes (y es capaz de distinguir aproximadamente
50.000 en forma simultánea), esta sensibilidad no es uniforme en todo el espacio
cromático, sino que es mucho mayor en ciertas áreas (por ejemplo, en el eje naranja-
violeta) y mucho menor en otras (por ejemplo, en el eje magenta-verde)
De los 256K colores definibles, miles de ellos son idénticamente percibidos, mientras que
otros no se representan con una fidelidad adecuada. En otras palabras, el espacio RGB es
una forma muy ineficiente de representar colores porque la información está codificada de
una manera muy “incoherente” con respecto a la capacidad del ojo.
En los modos gráficos true color el problema se soluciona con un costo muy grande (3
Universidad Nacional Abierta y a Distancia – UNAD
Vicerrectoría Académica y de Investigación - VIACI
Escuela: Escuela De Ciencias Básicas Tecnología E Ingeniería Programa: Ingeniería de Sistemas
Curso: Computación Gráfica Código: 299210
bytes por pixel es mucho más de lo necesario). Sin embargo, hay personas con visión
cromática muy sensible que siguen encontrando diferencias de matiz entre colores
contiguos en la gama del amarillo-anaranjado y del violáceo. Probablemente la mejor
solución hubiera sido contar con tecnología CSV en las tarjetas gráficas, dado que la
conversión al RGB del monitor se puede hacer dentro de la controladora de video.
En las paletas estáticas, por su parte existe un esquema cromático predefinido. Es decir,
se define de antemano un conjunto de colores adecuados para graficar cualquier escena,
en cualquier condición de iluminación y bajo cualquier algoritmo. Los resultados gráficos
tienden a ser de menor calidad. Sin embargo, la calidad de las imágenes, una vez
graficadas, no se deteriora con el posterior agregado de otras imágenes. Al mismo tiempo,
la referencia al índice de color que corresponde a cada pixel puede calcularse a partir del
color que debería corresponder al mismo. De esa forma, la imagen es graficada al mismo
tiempo que es computada, sin un costo adicional debido al manejo de color.
Universidad Nacional Abierta y a Distancia – UNAD
Vicerrectoría Académica y de Investigación - VIACI
Escuela: Escuela De Ciencias Básicas Tecnología E Ingeniería Programa: Ingeniería de Sistemas
Curso: Computación Gráfica Código: 299210
Un esquema estático de color ubica el índice de color con el que corresponde colorear
un pixel en función del color reclamado por el modelo de iluminación, y los colores más
cercanos disponibles en la paleta, probablemente por medio de interpolación. En capítulos
posteriores estudiaremos cómo funcionan los modelos de iluminación. Supongamos ahora
que para un punto p de cada cara en la escena se computan ecuaciones que determinan
la componente del color para cada primario RGB.
Cada pixel de cada cara reclamará un color determinado, es decir, una terna de reales
(R(p), G(p), B(p)). Esta terna debe transformarse a una terna (R,G,B) dentro de la
aritmética de la tarjeta gráfica. Al mismo tiempo, los valores de (R,G,B) deben estar
asociados a uno de los índices de color disponibles.
De esa forma, se eligen 6 intensidades permitidas para los primarios rojo y azul, y 7 para
el primario verde (que es para el cual el ojo humano es más sensitivo). De esa manera, el
espacio RGB de la tarjeta queda “cuantizado” en 150 prismas rectangulares, y todos los
colores representables que caen dentro de un mismo prisma se aproximan al valor del
vértice más cercano. La determinación de los 6*7*6 valores se debe realizar en forma
experimental, teniendo en cuenta la corrección del monitor utilizado. En un determinado
monitor (un NEC MultiSync 3D) para una posición adecuada en las perillas de brillo y
contraste, los resultados elegidos fueron rojo = (0,20, 32, 45, 55, 63), verde = (0, 15, 22,
30, 40, 50, 63) y azul = (0, 25, 35, 45, 55, 63). Debemos recordar que, en este modo
gráfico, es posible dar un valor entero de 0 a 63 a la intensidad en cada primario. La
estructura de la cuantización del espacio RGB elegida resulta ser muy práctica en el
momento de encontrar el color con el cual pintar un pixel. Antes de ejecutar la graficación,
es decir, como paso de inicialización de la interfaz, se almacena la paleta en la tabla de
colores de la pantalla.
Universidad Nacional Abierta y a Distancia – UNAD
Vicerrectoría Académica y de Investigación - VIACI
Escuela: Escuela De Ciencias Básicas Tecnología E Ingeniería Programa: Ingeniería de Sistemas
Curso: Computación Gráfica Código: 299210
La estructura de la cuantización del espacio RGB elegida resulta ser muy práctica en el
momento de encontrar el color con el cual pintar un pixel. Antes de ejecutar la grabación,
es decir, como paso de inicialización de la interfaz, se almacena la paleta en la tabla de
colores de la pantalla.
Cuando es necesario graficar un pixel de un color R,G,B arbitrario, se buscan los valores
r; g; b tales que rojo[r], verde[g], azul[b] sean los valores más cercanos, y luego se grafica
el pixel con el índice de color 42*r+6*g+b. Por ejemplo, si el modelo de iluminación
reclama un color (35,42,48), se ubican r=2, g=4, b=3 y se grafica el pixel con el índice de
color 111. Con este esquema se produce el efecto de “bandas de Mach” cuando se pintan
áreas contiguas con colores parecidos. Este efecto es producido por la capacidad del ojo
de amplificar localmente pequeñas variaciones cromáticas, lo cual le permite, entre otras
cosas, reconocer los bordes y las formas de los objetos. Sin embargo, el efecto que
producen las bandas de Mach al utilizar esta paleta de colores es indeseado (ver Figura 21
). Pero a diferencia de lo que sucede con las paletas dinámicas, en nuestro esquema es
posible utilizar una técnica de dithering aleatorio, es decir, se puede “perturbar”
aleatoriamente un color dado cambiándolo por alguno de sus vecinos más próximos en la
paleta
Esto es así porque en nuestro modelo, dado un determinado color de la paleta, es posible
ubicar rápidamente a sus colores vecinos, los cuales, además, son muy similares.
Una forma muy económica de producir este efecto consiste en perturbar para cada primario
la cuantización elegida. Si para el primario R se reclama un valor R, el cual está
comprendido entre rojo[r] y rojo[r+1] se perturbará la elección del valor r o r+1 en la
generación del índice de color asociado al pixel (lo propio se efectúa con los otros dos
Universidad Nacional Abierta y a Distancia – UNAD
Vicerrectoría Académica y de Investigación - VIACI
Escuela: Escuela De Ciencias Básicas Tecnología E Ingeniería Programa: Ingeniería de Sistemas
Curso: Computación Gráfica Código: 299210
primarios). Para ello se genera un número aleatorio rnd uniformemente distribuido entre
R−rojo[r]
0 y 1. Si 𝑟𝑛𝑑 ≥ se utiliza r+1, y en caso contrario se utiliza r. En el ejemplo
rojo[r+1]−𝑟𝑜𝑗𝑜[𝑟]
mencionado más arriba, la elección para la cuantización del rojo está circunscripta a los
valores predefinidos 32 o 45. Como 35 es más cercano a 32 que a 45, la probabilidad de
que se utilice dicho valor es mayor a la de utilizar 45. De esa manera, se transforma el
aliasing cromático producido por la baja frecuencia de muestreo en un ruido uniforme.
Universidad Nacional Abierta y a Distancia – UNAD
Vicerrectoría Académica y de Investigación - VIACI
Escuela: Escuela De Ciencias Básicas Tecnología E Ingeniería Programa: Ingeniería de Sistemas
Curso: Computación Gráfica Código: 299210
Existen multitud de componentes que son necesarios para lograr realizar buenos productos
gráficos, sin embargo, en este apartado nos centraremos en la clasificación y
características de los más comunes, a partir de una característica fundamental: usan
representación vectorial o ráster. Para ello se utiliza un documento presentado por Claudio
Delrieux.
Los resultados gráficos de una aplicación pueden mostrarse en una gran variedad de
dispositivos de salida. Normalmente estos dispositivos son o bien de pantalla o bien de
impresión. Sin embargo, desde el punto de vista de la Computación gráfica, es importante
otra clasificación, referida al modo en que los mismos son manejados por la computadora.
De esa manera, podemos ver que existen dispositivos de los siguientes tipos:
Actualmente estos dispositivos son más caros, pero tienen ciertas ventajas que los hacen
únicos. Por ejemplo, tienen mucha mejor resolución y precisión que los dispositivos de
ráster, y requieren un ancho de banda de comunicación mucho menor dado que no reciben
la discretización completa de las primitivas sino solamente su posición.
• Si hay pocas líneas el sistema espera para evitar refrescar más de lo necesario.
Plotters: Grafican en una hoja (que en algunos casos puede ser de gran tamaño) sobre
la cual se desliza una pluma movida por motores de pasos de gran precisión.
Un elemento se representa “pintándolo” por medio de una serie de recorridas del cañón
electrónico. El borrado, sin embargo, no puede hacerse en forma selectiva, por lo que no
se puede alterar la posición de un elemento sin tener que borrar y redibujar todos los
demás.
Sin embargo, su precisión y velocidad sin necesidad de memoria volátil los hace ideales
para la representación de imágenes de radares.
Los dispositivos de barrido (ráster) surgen como alternativa. Los elementos del dibujo se
almacenan en forma de pixeles. Cada vez que se refresca la imagen el cañón barre todos
los pixeles.
• El costo es menor.
Impresoras de matriz: Era hasta hace poco el dispositivo de impresión más común.
Universidad Nacional Abierta y a Distancia – UNAD
Vicerrectoría Académica y de Investigación - VIACI
Escuela: Escuela De Ciencias Básicas Tecnología E Ingeniería Programa: Ingeniería de Sistemas
Curso: Computación Gráfica Código: 299210
Recibe de la computadora la información gráfica como una secuencia de líneas, las cuales
va reproduciendo con una cabeza impresora (por medio del golpe de martillos o el rocío
de tinta).
Los monitores más populares pueden tener resoluciones de hasta 1200 * 1024 pixeles
(aunque este límite avanza día a día), con una cantidad de colores limitada por las
prestaciones de la tarjeta gráfica. Esto representa una calidad más que aceptable para la
mayor parte de las aplicaciones. A continuación, se presentan los diferentes estándares y
su capacidad de resolución:
Universidad Nacional Abierta y a Distancia – UNAD
Vicerrectoría Académica y de Investigación - VIACI
Escuela: Escuela De Ciencias Básicas Tecnología E Ingeniería Programa: Ingeniería de Sistemas
Curso: Computación Gráfica Código: 299210
Tomado de:
https://upload.wikimedia.org/wikipedia/commons/thumb/f/f0/Vector_Video_Standards4.svg/1280px-
Vector_Video_Standards4.svg.png
Esto significa que en promedio el buffer de pantalla es accedido 35 millones de veces por
segundo por el generador de video, lo cual requiere una velocidad de acceso a memoria
de aproximadamente 30ns para cumplir sólo con el refresco de pantalla. En una situación
como esta, utilizar memoria de 25ns. para el buffer de pantalla permite utilizar solamente
un pico de 5 millones de accesos por segundo para la CPU, lo cual en muchos casos es
insuficiente si se tiene en cuenta que el acceso entre la CPU y la tarjeta gráfica por el bus
ISA debe cumplir cierto protocolo que hace más lenta la comunicación.
Otro esquema posible para manejar la memoria de pantalla es utilizar la tecnología de bus
local (difundida alrededor de 1993 con las motherboard 486 y tarjetas Vesa Local Bus).
Básicamente la idea es evitar el uso del bus de datos ISA para interconectar la tarjeta
gráfica con la CPU. De ese modo se utiliza un segundo bus (llamado bus local),
normalmente de 32 bits en vez de 16, con la velocidad del reloj externo del
microprocesador (50Mhz. en vez de 8.33) y con capacidad de acceso directo a memoria.
Las señales de barrido son enviadas al monitor, pero también se utilizan para encontrar la
posición de memoria en la cual está almacenada la información gráfica de cada pixel que
constituye una línea de barrido. Esto se realiza por medio de una unidad aritmética que
encuentra una dirección lineal a partir de los valores de la señal de barrido horizontal y
vertical. La dirección lineal habilita la salida del valor almacenado en un lugar de la
memoria del buffer de pantalla. Dicho valor es transformado en información gráfica por
medio de una tabla de color, excepto en el modo true color (color verdadero) que se
explicará más adelante.
Los dispositivos de entrada permiten la interacción del usuario con el objeto gráfico creado.
Estos dispositivos se pueden clasificar en teclados, apuntadores de control directo,
apuntadores de control indirecto y apuntadores de última tecnología.
Tomado de:
https://www.58bits.com/sites/default/files/public/content/binary/InSearchofTheWorldsBestComputerKeyboar
d_1386A/IMG_2156_02_thumb_3_1.jpg
Universidad Nacional Abierta y a Distancia – UNAD
Vicerrectoría Académica y de Investigación - VIACI
Escuela: Escuela De Ciencias Básicas Tecnología E Ingeniería Programa: Ingeniería de Sistemas
Curso: Computación Gráfica Código: 299210
Para lograr un sistema flexible los microcontroladores no identifican cada tecla con su
carácter serigrafiado en la misma, sino que se adjudica un valor numérico a cada una de
ellas que sólo tiene que ver con su posición física. Si no se hiciera así ese sistema sería
muy dependiente de cada idioma, también hay que tener en cuenta que idiomas como por
ejemplo en francés tienen teclados AZERTY en lugar del que se tiene en Estados Unidos
QWERTY.
Los teclados usados en América latina y España extienden la configuración básica del
teclado QWERTY con el fin de incluir la letra eñe y facilidades para letras acentuadas. Como
el teclado español debe servir para las diversas lenguas de la península ibérica se facilita
sobre todo la escritura de diversos acentos aún los no utilizados en el castellano. El teclado
latinoamericano sólo da soporte con teclas directas a los caracteres específicos del
castellano, que incluyen dos tipos de acento, la letra eñe y los inicios de exclamación e
interrogación. El resto de combinaciones de acentos se obtienen usando una tecla de
extensión de grafismos (<ALT-GR>). Por lo demás el teclado latinoamericano está
orientado hacia la programación, con fácil acceso al juego de símbolos de la norma ASCII.
En los teclados AT los códigos generados son diferentes, por lo que por razones de
compatibilidad es necesario traducirlos. De esta función se encarga el controlador de
teclado que es otro microcontrolador (normalmente el 8042), éste ya situado en el PC.
Este controlador recibe el Keyboard Scan Code (Kscan Code) y genera el propiamente
dicho Scan Code. En cualquier caso, ya sea teclado PS/2 ó AT el Scan Code es entregado
a la BIOS del PC para identificar la tecla pulsada.
El lápiz óptico contiene sensores luminosos y envía una señal a la computadora cada vez
que registra una luz, por ejemplo, al tocar la pantalla cuando los pixeles no negros que se
encuentran bajo la punta del lápiz son refrescados por el haz de electrones de la pantalla.
La pantalla de la computadora no se ilumina en su totalidad al mismo tiempo, sino que el
haz de electrones que ilumina los pixeles los recorre línea por línea, todas en un espacio
de 1/50 de segundo. Detectando el momento en que el haz de electrones pasa bajo la
punta del lápiz óptico, el ordenador puede determinar la posición del lápiz en la pantalla.
El lápiz óptico no requiere una pantalla ni un recubrimiento especiales como puede ser el
caso de una pantalla táctil, pero tiene la desventaja de que sostener el lápiz contra la
pantalla durante periodos largos de tiempo llega a cansar al usuario.
En cuanto a las pantallas, el tipo de pantalla táctil más sencillo está compuesto de una red
de líneas sensibles, que determinan la situación de una presión mediante la unión de los
contactos verticales y horizontales.
Otros tipos de pantallas más precisas utilizan una superficie cargada eléctricamente y
sensores alrededor de los bordes externos de la pantalla, para detectar la cantidad de
cambio eléctrico y señalar exactamente donde se ha realizado el contacto. Un tercer tipo
fija diodos emisores de rayos infrarrojos (LEDs, acrónimo de Light-Emitting Diodes) y
sensores alrededor de los bordes externos de la pantalla. Estos LEDs y sensores crean una
red invisible de infrarrojos en la parte delantera de la pantalla que interrumpe el usuario
con sus dedos.
En cuanto a los apuntadores de control indirecto, con el ratón constituyen los de uso
más extendido en conjunto con los teclados. Estos apuntadores están constituidos por
dispositivos externos que permiten manejar un apuntador gráfico en el monitor, mediante
su movimiento y realizar acciones sobre los objetos mediante botones.
Figura 28 Dispositivos apuntadores indirectos: ratón, touchpad, trackpoint, joystick, tableta gráfica, etc.
Los ratones (mouse) suelen estar constituidos por una caja con una forma más o menos
anatómica en la que se encuentran dos botones que harán los famosos clics de ratón siendo
transmitidos por el cable al puerto PS/II o al puerto de serie. Los ratones mecánicos
mantienen dentro de esta caja una bola que sobresale de la caja a la que se pegan 4
rodillos ortogonalmente dispuestos que serán los que definan la dirección de movimiento
del ratón. El ratón se mueve por una alfombrilla ocasionando el movimiento de la bola que
a su vez origina el movimiento de uno o varios de estos rodillos que se transforma en
señales eléctricas y producen el efecto de desplazamiento del ratón por la pantalla del
ordenador.
Existen modelos en los que la transmisión se hace por infrarrojos eliminando por tanto la
necesidad de cableado. Otros presentan la bola en la parte superior de la caja no estando
por tanto en contacto con la alfombrilla y teniendo que ser movida por los dedos del
usuario, aunque se origina el mismo efecto. Otros utilizan diodos emisores de luz (led),
para capturar el movimiento del ratón, en este caso se denominan ratones ópticos.
Universidad Nacional Abierta y a Distancia – UNAD
Vicerrectoría Académica y de Investigación - VIACI
Escuela: Escuela De Ciencias Básicas Tecnología E Ingeniería Programa: Ingeniería de Sistemas
Curso: Computación Gráfica Código: 299210
Hasta la llegada del software 3D la mayoría de los efectos especiales se realizaban por
medio de efectos ópticos, maquetas, matte painting, etc. Con el software de graficación
en 3D se puede imitar la realidad con tal realismo, que es difícil detectar si la escena se ha
rodado o se ha generado en un ordenador. Esto ha quedado patente en muchas películas,
que ya hemos mencionado.
Los paquetes de animación consisten en uno o varios módulos con los que es posible
modelar, animar y dar apariencia real a un objeto. En un principio, las empresas de
animación programaban su propio software con el cual luego trabajaban. Poco a poco
fueron surgiendo distintos programas, los cuales podían ser adquiridos a través de una
licencia de uso.
El proceso de creación de gráficos 3D por computadora puede ser dividido en estas tres
fases básicas:
• Modelado
• Composición de la escena
El modelado puede ser realizado por programas dedicados (como Lightwave 3D,
Rhinoceros 3D o Moray), un componente de una aplicación (Shaper, Lofter en 3D Studio)
o por un lenguaje de descripción de escenas (como en POV-Ray. En algunos casos, no hay
una distinción estricta entre estas fases; en dichos casos, el modelado es sólo una parte
del proceso de creación de escenas (por ejemplo, con Caligari trueSpace).
Las mallas de triángulos son populares ya que está probado que son fáciles de 'renderizar'
usando Scanline rendering.
El proceso de rénder necesita una gran capacidad de cálculo, pues requiere simular gran
cantidad de procesos físicos complejos. La capacidad de cálculo se ha incrementado
rápidamente a través de los años, permitiendo un grado superior de realismo en los
rénders. Estudios de cine que producen animaciones generadas por ordenador hacen uso,
en general, de lo que se conoce como rénder farm (granja de rénder) para acelerar la
producción de fotogramas
A pesar de haber muchos paquetes de modelado y animación 3D, los cuatro que se han
ganado la mayor popularidad son:
Junto a estos paquetes mayores, hay otros que no se han ganado tal aceptación general,
pero que no son simples juguetes. Algunos son:
dispuesta a colaborar.
Cada software tiene sus ventajas y desventajas frente a los demás, pero la posibilidad de
realizar un trabajo de calidad no depende de esto, sino de los conocimientos, la creatividad,
y no tanto del software.
Las siguientes APIs para gráficos por computadora son particularmente populares:
• OpenGL
• RenderMan
Universidad Nacional Abierta y a Distancia – UNAD
Vicerrectoría Académica y de Investigación - VIACI
Escuela: Escuela De Ciencias Básicas Tecnología E Ingeniería Programa: Ingeniería de Sistemas
Curso: Computación Gráfica Código: 299210
Referencias Bibliográficas
Baecker, J., Grudin, W., & Greenberg (eds). (1997). Human-Computer Interaction:
toward the year 2000. MorganKauffmann.
Preece, Y., Rogers, H., Sharp, D., Benyon, S., & Holland, T. (1994). Human Computer
Interaction. Addison-Wesley.