Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1. Mecatrónica
1
La existencia de ésta palabra se atribuye a Tetsura Mori, un ingeniero Senior que trabajaba para Yaskawa Electric Corp.,
en 1969. Mori la empleó para referirse a la combinación de sistemas eléctricos y mecánicos. También se conoce por
mecanotrónica.
2
Las prácticas artísticas relacionadas con la tecnología se producen en la intersección, ya sea parcial o total, de los
ingredientes de la era de la información: computación, comunicación, contenidos e, indirectamente, con las disciplinas
ingenieriles relacionadas: robótica, electrónica, informática, redes, programación, vida e inteligencia artificial, mecánica,
multimedia, etc. Esta particularidad le otorgan precisamente las características más importantes de la mecanotrónica: la
progresividad y la reactividad. La primera está relacionada con la acción procesual y activa de las obras (auténticos
sistemas de ingeniería) y la segunda con su capacidad de interacción.
3
Traducción de los autores.
1
de la mecatrónica es la robótica y, consecuentemente, la visión e inteligencia artificial, los
sensores y actuadores, los sistemas de control, etc.
1.1. Captura del Gesto
La captura del movimiento (conocida en inglés como motion capture, motion tracking o mocap)
describe el proceso de grabación de movimiento, de la cualidad expresiva del gesto, y lo
traslada a un modelo digital. En el contexto de la animación, se refiere a la técnica de almacenar
las acciones de actores, y usar esa información para animar modelos digitales de personajes ya
sea en 2D ó 3D. Se basa tradicionalmente en las técnicas de fotogrametría 4, medidas sobre fotos,
sin embargo, es el propio concepto de fotografía el que ha revolucionado. La fotografía permite
obtener imágenes duraderas, atrapar el movimiento, debidas a la acción de la luz; sin embargo la
extensión de la radiación luminosa por debajo y por encima del espectro visible (luz infrarroja,
IR y ultravioleta, UV; respectivamente) permiten “ver” más allá de lo que el ojo ve.
Kinect es una tecnología que supone “una revolución en la tecnología similar a las que dio
forma a la mayoría de avances fundamentales del siglo XX. Al igual que el estreno del
ordenador personal o Internet, la publicación de la Kinect fue otro momento en que la fruta, de
miles de millones de dólares y décadas de investigación que anteriormente sólo había estado
disponible para los militares y la comunidad intelectual, cayó en manos de la gente común”
(Borenstein, 2012, p. v).
Kinect es, básicamente, una cámara de profundidad (depth camera) de bajo coste que no sólo
convierte en imagen la luz que devuelven los objetos sino que registra la distancia de los
objetos. Por cada píxel5, Kinect devuelve información de color y profundidad.
Figura 1. Kinect sin la carcasa. De izquierda a derecha: proyector IR, cámara RGB, cámara IR. Además incorpora
un arreglo lineal de micrófonos, control motorizado de la inclinación de los sensores y conexión USB.
Kinect es un producto de Microsoft para su consola de juegos Xbox 360 desarrollado por
PrimeSense. Sin embargo su masificación se debió a una recompensa de 2.000 dólares que
ofreció Adafruit (empresa distribuidora de kits para proyectos de código abierto de hardware,
4
La fotogrametría es una técnica que determina las propiedades geométricas de los objetos y las situaciones espaciales a
partir de imágenes fotográficas.
5
El píxel es la mínima unidad de información de la imagen digital. Es resultado de un doble proceso de cuantificación
espacial y del color; determinado por la resolución de la imagen 2D y del color, respectivamente. La codificación de la
información del color más habitual es la RGB que corresponde a la suma aditiva de los tres colores primarios: rojo, verde
y azul. La inclusión de la coordenada profundidad permite generar imágenes 3D.
2
muchos de ellos basado en el microcontrolador Arduino 6), a la primera persona que produjera
controladores de código abierto, mediante procesos de ingeniería inversa, que permitieran a
cualquiera acceder a los datos del Kinect.
Figura 2. Ejemplos de información generada por Kinect a partir de imagen de profundidad. Arriba. Modelo 3D .
Abajo. Esqueleto con puntos de control (joint) indicados y etiquetados en rojo y huesos (bones) trazados en negro.
6
Arduino. http://www.arduino.cc/es/. Consultado el 28 de junio , 2012. Arduino es una plataforma de hardware libre,
basada en una placa con un microcontrolador y un entorno de desarrollo, diseñada para facilitar el uso de la electrónica en
proyectos multidisciplinares.
3
Esta iniciativa puso en marcha el proyecto Open Kinect, un esfuerzo de colaboración de
código abierto, para construir recursos gratuitos de explotación y desarrollo del Kinect que,
paradójicamente, terminaron por consolidar el producto de Microsoft mediante una política de
liberalización de las herramientas de desarrollo para PC de PrimeSense y de realimentación de
la creatividad de la comunidad. Posteriormente PrimeSense incluyó software más sofisticado
para procesar la imagen bruta (raw) de profundidad, detectar usuarios y localizar la posición de
las articulaciones (skeleton), en tres dimensiones, en un sistema que denominó OpenNI, por
"Interacción Natural" (Natural Interaction). Afortunadamente, hay una cosa que tanto OpenNI y
Open Kinect tienen en común: una biblioteca para Processing. Dan Shiffman y Max Rheiner,
desarrollaron bibliotecas para Processing7: Open Kinect y OpenNI (SimpleOpenNI),
respectivamente8, que permiten acceder a prácticamente la totalidad de las funcionalidad del
Kinect. La conexión Kinect–Processing produce un beneficio recíproco que resulta un salto
cualitativo para la captura gestual. La extraordinaria capacidad interactiva del Kinect en
conjunción con la potencia de Processing (soportada en la amplia y potente biblioteca de
contribuciones) y la interacción con Arduino, permiten construir complejos sistemas
mecatrónicos de manera relativamente sencilla y barata.
La parte inferior de la Figura 2 muestra una captura de la posición de las quince uniones o
puntos de control del esqueleto, que, en el tiempo, forman trayectorias. De arriba hacia abajo:
lHand, rHand, lElbow, rElbow, lShoulder, rShoulder (parejas izquierda–derecha de mano, codo
y hombro), head, neck y torso, lHip, rHip, lKnee, rKnee, lFoot y rFoot (parejas izquierda–
derecha de cadera, rodilla y pie).
1.2. Animata
4
las partes, que configuran las diversas poses. La peculiaridad de este sencillo entorno es que
permite la interactividad y el control del movimiento de las marionetas desde otros programas
en tiempo real a través de un protocolo de comunicación heredado de la música: OSC (Open
Sound Control).
“La particularidad de este software es que la animación –el movimiento de las marionetas, los
cambios de fondo– se genera en tiempo real, lo que hace posible la interacción continua. Esta
capacidad también permite conectar sensores físicos, cámaras u otras variables ambientales a la
animación de personajes, creando una caricatura que puede reaccionar a su entorno. Por ejemplo,
es muy simple crear una banda virtual de títeres que reaccione en directo a una entrada de audio, o
una escena de personajes dibujados controlados por el movimiento de bailarines” (Véase:
http://animata.kibu.hu/).
Animata constituye un recurso muy útil, no sólo para el aprendizaje de determinadas técnicas
de animación, o de la dinámica del movimiento, sino también para la introducción de prácticas
procesuales.
lHand
lShoulder rHand
lElbow rShoulder
rElbow
Figura 3. Ejemplos de títeres marionetas. Arriba izquierda. Imagen fragmentada inicial . Arriba derecha. Modelo
Animata. Abajo izquierda. Captura de la animación. Abajo derecha. Ejemplo de animación de marioneta mediante el
cuerpo humano. Obsérvese la correspondencia entre seis puntos de control o uniones del esqueleto de la marioneta y
del Kinect (Figura 2 abajo), respectivamente.
Existen otros entornos de animación más potentes y de libre distribución como Blender 11.
Blender ofrece un amplio espectro de modelado, texturizado, iluminación, animación y post-
procesado de vídeo en un solo paquete. A través de su arquitectura abierta, Blender proporciona
interoperabilidad entre plataformas, extensibilidad, un tamaño increíblemente pequeño, y un
flujo de trabajo totalmente integrado. Blender es una de las más populares aplicaciones de
11
Blender. http://www.blender.org/. Consultado el 28 de Junio, 2012.
5
código abierto de gráficos 3D, no sólo por su calidad y potencia sino también por su naturaleza
abierta. Blender incorpora un intérprete de Python12 totalmente funcional que permite a
cualquier usuario añadir funcionalidades mediante un simple script. A través de un enchufable
(plugin), escrito en Python, Blender se puede convertir en un cliente de mensajes OSC y
conectar de esta manera la animación con un controlador externo; como puede ser Kinect–
Processing.
2. Conexiones
6
controladores gestuales se transmiten normalmente en conexiones USB punto a punto
encapsulados en el protocolo serie SLIP (Serial Line Internet Protocol). OSC hereda de su
antecesor, MIDI, su facilidad de evolución y mejora en relación al tipo de datos, influido por
protocolos abiertos como XML, JSON y WDDX; lo que permite generalizar su alcance y
trascender su utilizad específica en la música.
Tanto Animata como Blender tienen la capacidad de reaccionar a mensajes OSC, lo que
permite controlar el movimiento de las marionetas con mensajes musicales, por ejemplo, y
sincronizarlo, a su vez, con cualquier otra aplicación que procese estos mensajes. Esta
capacidad de interconexión “universal” permite expandir el uso del Kinect a muchas otras
prácticas artísticas intermediales, o incluso transmediales, y por lo tanto enriquecer las
actividades educativas y generar metodologías pedagógicas avanzadas. Si se tiene en cuenta la
conexión natural Arduino–Processing, Arduino podría servir como una pasarela de mensajes
entre diferentes entornos de trabajo; por ejemplo, el protocolo de control de iluminación DMX
(Digital MultipleX), etc.
3. Conclusiones
Bibliografía