hadesbry

@hadesbry Activo hace 12 años, 8 meses
En la Comunidad desde 2013

Respuestas de foro creadas

Viendo 5 entradas - de la 1 a la 5 (de un total de 5)
  • Autor
    Entradas
  • #27707
    hadesbry
    Participante

    Hola, es necesario que la fotografía se tome con un objetivo de la misma distancia focal que el objetivo del proyector, y de no ser así, es necesario compensar las distorciones entre ambos. Les aconsejo que trabajen con una grilla de corrección que pueden hacerla con líneas diagonales, verticales, horizontales y rectángulos rectángulos concéntricos, tomen las fotos proyectando la grilla… Así les será más fácil… No olviden que la fotografía tendrá que tener el mismo tamaño de la resolución a la que proyectarán…

    #27706
    hadesbry
    Participante

    me olvidaba… Si el evento no necesita que dispares las imágenes en vivo, podrías emplear live para mandar la secuenciación por midi a VVVV en el servidor, y de ahí a los clientes… Puedes aprovechar para mandar el sonido desde el servidor a través de live… 😛

    #27705
    hadesbry
    Participante

    Hola… Trataré de meter mi cuchara… Jajaja… Trabajé bastante tiempo con VVVV, es buenísimo. Para simplificar un poco el trabajo, y así no tener que programar demasiado, te aconsejaría que pruebes el boygrouping y una máquina para cada proyector, pero en lugar de disparar los videos desde VVVV, sólo mandes eventos midi a alguna aplicación como resolume arena, con lo que simplificarás el tema de blending y la corrección de perspectiva… Tendrás que hacer que el servidor mande las señales midi a los clientes, y por medio de midiyoke u otro puerto midi virtual, redirijas esa señal al software encargado de mandar los videos que tendrá que estar instalado en cada cliente… Así todo estará sincronizado y cada cliente enviará la porción de video que definas… Espero te sirva ésta alternativa… 😉

    #27704
    hadesbry
    Participante

    Hola… Felicidades… El arte new media es una pasada, pero poca gente se anima a meterle ganas… Vas por buen camino… processing es muy poderoso… Max MSP y puré pure data, son lenguajes dedicados más dedicados al sonido y pueden comunicarse mediante varios protocolos con su equivalente en imágenes VVVV, es buenísimo aunque no está disponible para mac… Otro punto clave sería que experimentes con arduino así incrementas las posibilidades interactivas… opencv es otro fuerte recurso para interpretar blobs, objetos, fiduciales, aéreas de movimiento a partir de cámaras web o si tienes un capturador, incluso cámaras infrarrojas, ideales para que tus proyecciones sean táctiles, para luego atribuirles eventos mediante processing, VVVV, Max, PD, etc. y generar respuestas a partir de midi por ejemplo… Hazte con un kinect, eso disparará tus posibilidades de interacción a nuevos niveles… 😉

    #27703
    hadesbry
    Participante

    Hola… El kinect que tengo venía con el adaptador. Del adaptador, sale una conección a USB y otra para la alimentación, al aparecer el USB sólo se lo utiliza para transmisión de datos… la alimentación es necesaria para que funcionenfuncionen las 2 cámaras con las que cuenta y el motor que regula la posición del sensor… lamentablemente es necesario el adaptador y la alimentación a una fuente externa; por otro lado, tal vez alguien pueda armar uno de esos adaptadores, detectando qué pines son de para alimentación y cuáles para transferencia de datos.. Espero no equivocarme con las impresiones que acá comparto… un abrazo…

Viendo 5 entradas - de la 1 a la 5 (de un total de 5)