Delicode ltd. es un equipo de desarrolladores con sede en Finlandia, los cuales llevan poco menos de dos años con el desarrollo de Z Vector, un software de visualización en vivo para sensores PrimeSense Carmine, Asus Xtion Pro Live , Microsoft Kinect para Xbox 360.
Z Vector es una herramienta pensada para simplificar el uso de sensores 3D (KInect, etc) en performances en vivo, a través de una interfaz gráfica intuitiva ( pero no fácil de usar a primera vista). Es compatible con Mac OSX (Mountain Lion o superior) y Windows 7
Diseñado para el directo, es el primero de su tipo (al menos que yo sepa) para ver, grabar, reproducir y deformar imágenes de cámaras (sensores) 3D en tiempo real. Esto hace que sea una herramienta única para producciones de vídeo, así como actuaciones. Escanea y graba cualquier cosa que te inspire: formas, objetos, animales, bailarines, actores, artistas de circo, ambientes, etc.
Vamos a ver un poco que pinta tiene:
La interfaz principal está formada por un solo marco con dos partes definidas: la parte superior, donde se encuentran los controles más básicos: una venta de previo de la salida, control de imagen (brillo, contraste y saturación) el control de la cámara, visor de entrada de audio, Beat y Midi Synch. En la derecha encontramos un botón de configuración MIDI, Meta, así como tres modos aleatorios muy útiles para comenzar a experimentar.
En la parte inferior, tenemos 4 pestañas definidas; en primer lugar el Mixer, donde se configuran las propiedades de las cámaras y los fondos.

en la segunda pestaña están dispuestos los FX, el tipo de geometría, distorsión degradados y filtros

La tercera pestaña, denominada Trigers, dispone de perfiles predefinidos por el usuario a modo de presets, una librería de fondos para vídeos y samples. Hay una cuarta pestaña Meta, para crear controladores y manejar varios datos desde un mismo control.
Como ejemplo, Delicode nos deja un videoclip que realizó para el grupo Phamtom. Grabaron en directo unas cuantas tomas en vivo con una de las primeras versiones del programa. Después las editaron y con un poco de Post-producción e imaginación se pueden conseguir resultados mas que satisfactorios.
Requisitos del sistema
- Mínimo: Mac (Intel) OS X 10.7 + y Windows 7 +, Intel I3 o equivalente
- Recomendado: tarjetas grafica de gama alta NVIDIA o tarjeta gráfica ATI, + 4 GB de RAM, Intel I7 o equivalente
Dispositivos de entrada compatibles
- Todos los sensores OpenNI compatibles:PrimeSense Carmine (recomendado), Asus Xtion Pro Live , Microsoft Kinect para Xbox 360
Medios de comunicación y los protocolos soportados
- MIDI (incl. reloj MIDI) y OSC
- Syphon In / Out (Mac OS X)
- Vídeo nativo y formatos de imagen
- archivos de vídeo de cámaras de profundidad Estándar ONI.
UI, Interfaz de usuario
- Partes de la interfaz pueden separase en Ventanas.
- Interfaz con ocho controles Meta programables
- Candado para el bloquedo de variables en todas las partes de la interfaz de usuario
Conectividad y automatización
- Análisis de audio integrado (High / Low / ruido) y detección de Beat o fuentes de datos externos para automatizaciones.
- Se conecta a cualquier controlador estándar MIDI y OSC
- Soporte completo MIDI y modo de aprendizaje MIDI Learn. Sincronización Midi Clock
Efectos Visuales
- Múltiples modos de dibujo de geometría (texturas, líneas, polígonos, vectores) variables de tamaño y opacidad
- Modos de degradado múltiples (profundidad, intensidad, campo horizontal, vertical, distorsión)
- Rastros de partículas con sangrado variable extensión, gravedad y coloración
- Modo de distorsión con fuente de variables, dirección, forma de onda, escala y ancho
- Soporte completo para GLSL shaders con el editor integrado
- Efectos en cadena de shaders (hasta tres efectos simultáneos)
- Filtros de salida estándar: suavizado, zoom, retroalimentación, congelación, tonalidad, Vignette
- Transiciones visuales entre las variables y los perfiles (con velocidad variable)
- Múltiples modos de asignación al aleatorios para las variables desbloqueadas
Mezcla 3D y control de la cámara
- Un mezclador de entrada live/playback, una entrada dedicada de playback
- Un canal mezclador de 3D con colocación de profundidad y desplazamiento horizontal
- Velocidad de reproducción, parada, señal y corte (para el material grabado)
- Modos Looping, estrobo sincronizados al ritmo o reloj MIDI
- Pantalla verde Virtual (croma) : reconocimiento automático o manual
- Recomocimiento de personas : selección una o más personas y automáticamente la cámara se centra en ellos
- Movimientos de cámara: Libre, yaw, roll, pitch
- Posiciones de cámara predeterminadas y múltiples modos de mezcla (con velocidad variable)
- Soporte para varios formatos de imagen y vídeo para los fondos.
- Soporte Syphon Input para el fondo de mezcla (sólo Mac OSX)
Procesamiento y salida
- Resolución de representación totalmente escalable hasta 1920 x 1080 (Full HD) ( llimitado en la Beta a 1280 × 720)
- Soporte 3D nativo: anaglifos, de lado a lado y Oculus Rift
- Ajustes principales de salida: brillo, contraste, saturación
- Keystone y suavizado de bordes
Si llegados a este punto, tienes el gusanillo de probarlo, aquí tienes el enlace para bajar una demo Beta. gratuita de momento. Lo único que tienes que hacer es conectar tu Kinect ( o cualquier otro sensor compatible) y registrarlo.
Pagina Oficial: Z Vector | The depth camera visualization tool