Z Vector | software para visualización y mezcla en vivo de sensores 3D

Textos: gnomalab

Delicode ltd.  es un equipo de desarrolladores con sede en Finlandia, los cuales  llevan  poco menos de dos años con el desarrollo  de Z Vector, un  software de visualización en vivo para sensores PrimeSense CarmineAsus Xtion Pro Live , Microsoft Kinect para Xbox 360.

Z Vector es una herramienta pensada para  simplificar el uso de sensores 3D (KInect, etc) en performances en vivo, a través de una interfaz gráfica intuitiva ( pero no fácil  de usar a primera vista). Es compatible con  Mac OSX (Mountain Lion o superior) y Windows 7

Diseñado para  el directo, es el primero de su tipo (al menos que yo sepa) para ver, grabar, reproducir y deformar imágenes de cámaras (sensores) 3D en tiempo real. Esto hace que sea una herramienta única para producciones de vídeo, así como actuaciones. Escanea y graba cualquier cosa que te inspire: formas, objetos, animales, bailarines, actores, artistas de circo, ambientes, etc.

Vamos a ver un poco que pinta tiene:

La interfaz principal está formada por un solo marco con dos partes definidas: la parte superior, donde se encuentran los controles más básicos:  una venta de previo de la salida, control de imagen (brillo, contraste y saturación) el control de la cámara, visor de entrada de audio, Beat y Midi Synch. En la derecha encontramos un botón de configuración MIDI, Meta, así como tres modos aleatorios muy útiles para comenzar a experimentar.

Gnomalab probando z vector mixer.

En la parte  inferior, tenemos 4 pestañas definidas; en primer lugar el Mixer, donde se configuran las propiedades de las cámaras y los fondos.

zvectorfx

en la segunda pestaña están dispuestos los FX, el tipo de geometría, distorsión degradados y filtros

zvectortrigers

La tercera pestaña, denominada Trigers, dispone  de perfiles predefinidos  por el usuario a modo de presets, una librería de fondos  para vídeos y samples. Hay una cuarta pestaña Meta, para crear controladores y manejar varios datos desde un mismo control.

Como ejemplo, Delicode nos deja un videoclip que realizó para  el grupo Phamtom. Grabaron en directo unas cuantas tomas en vivo con una de las primeras versiones del programa. Después las editaron y con un poco de Post-producción  e imaginación se pueden conseguir resultados mas que satisfactorios.

Requisitos del sistema

  • Mínimo: Mac (Intel) OS X 10.7 + y Windows 7 +, Intel I3 o equivalente
  • Recomendado: tarjetas grafica de gama alta NVIDIA o tarjeta gráfica ATI, + 4 GB de RAM, Intel I7 o equivalente

Dispositivos de entrada compatibles

Medios de comunicación y los protocolos soportados

  • MIDI (incl. reloj MIDI) y OSC
  • Syphon In / Out (Mac OS X)
  • Vídeo nativo y formatos de imagen
  •  archivos de vídeo de cámaras de profundidad Estándar ONI.

UI, Interfaz de usuario

  • Partes de la interfaz pueden separase en Ventanas.
  • Interfaz con ocho controles Meta programables
  • Candado para el bloquedo de variables en todas las partes de la interfaz de usuario

Conectividad y automatización

  • Análisis de audio  integrado  (High / Low / ruido) y detección de Beat o fuentes de datos externos para automatizaciones.
  • Se conecta a cualquier controlador  estándar MIDI y OSC
  • Soporte completo MIDI  y modo de aprendizaje MIDI Learn. Sincronización Midi Clock

Efectos Visuales

  • Múltiples modos de dibujo de geometría (texturas, líneas, polígonos, vectores)  variables de tamaño y  opacidad
  • Modos  de degradado múltiples (profundidad, intensidad, campo horizontal, vertical, distorsión)
  • Rastros de partículas con sangrado variable extensión, gravedad y coloración
  • Modo de distorsión con fuente de variables, dirección, forma de onda, escala y ancho
  • Soporte completo para GLSL shaders con el editor integrado
  • Efectos en cadena de shaders (hasta tres efectos simultáneos)
  • Filtros de salida estándar: suavizado, zoom, retroalimentación, congelación, tonalidad, Vignette
  • Transiciones visuales entre las variables y los perfiles (con velocidad variable)
  • Múltiples modos de asignación al aleatorios  para las variables desbloqueadas

Mezcla 3D y control de la cámara

  • Un mezclador de entrada live/playback,  una entrada dedicada de playback
  • Un canal mezclador de 3D ​​con colocación de profundidad y desplazamiento horizontal
  • Velocidad de reproducción, parada, señal y corte (para el material grabado)
  • Modos Looping, estrobo sincronizados al ritmo o reloj MIDI
  • Pantalla verde Virtual (croma) : reconocimiento automático o manual
  • Recomocimiento de personas : selección una o más personas y  automáticamente la cámara se centra en ellos
  • Movimientos de cámara:  Libre, yaw, roll, pitch
  • Posiciones de cámara predeterminadas  y múltiples modos de mezcla (con velocidad variable)
  • Soporte para varios formatos de imagen y vídeo para los fondos.
  • Soporte Syphon Input  para el fondo de mezcla (sólo Mac OSX)

Procesamiento y salida

    • Resolución de representación totalmente escalable hasta 1920 x 1080 (Full HD)  ( llimitado en la Beta a 1280 × 720)
    • Soporte 3D nativo: anaglifos, de lado a lado y Oculus Rift
    • Ajustes principales de salida: brillo, contraste, saturación
    • Keystone  y suavizado de bordes

Si llegados a este punto, tienes el gusanillo de probarlo, aquí tienes el enlace para bajar una demo Beta. gratuita de momento. Lo único que tienes que hacer es conectar tu Kinect ( o cualquier otro sensor compatible) y registrarlo.
Pagina Oficial:  Z Vector | The depth camera visualization tool