Usando Eoes de luz para transformar paredes en espejos

[Matthias] Recientemente publicó un artículo en el que estaba trabajando, en el que detalla cómo su grupo logró reconstruir una escena oculta utilizando una pared como espejo a un precio asequible. Una cámara de vuelo modificada (PMD CamBoard Nano) solía saber exactamente cuándo los destellos cortos de luz regresaban a su sensor. En la imagen que se muestra arriba, el azul representa el campo de visión de la cámara. El recuadro verde es la interesante escena de 1,5 m * 1,5 m * 2,0 my estamos bastante seguros de que ya sabes que la fuente de luz, el láser, apunta hacia el rojo.

Como puede adivinar, el principal desafío en esta experiencia fue descubrir de dónde proviene la cámara con flash reflejado de tres vías. Dado que el láser tenía que estar sincronizado con el ciclo de exposición de la cámara, es muy interesante notar que parte del desafío era descifrar este último para oler las señales correctas. Las condiciones de luz limitaron el impacto a su tolerancia alcanzada de + -15cm.

  • Adán dice:

    ¿Entonces, cómo funciona? ¿Algún enlace?

    • rasz_pl dice:

      https://www.youtube.com/watch?v=IyUgHPs86XM

      La explicación comienza alrededor de 40 min.

      • Matiaso_H dice:

        Lo que Carmack explica aquí es el problema anterior. Nos ocupamos del problema inverso: dado un modelo de formación de imágenes y la imagen resultante (datos medidos), ¿cuáles son los parámetros de nuestro modelo (geometría y reflectividad)?

        Todos los detalles restantes en nuestro periódico que puede obtener a través del enlace que figura arriba.

  • Jon Hollander dice:

    Mi objetivo es mostrar la investigación académica sobre HAD, pero quiero que incluyan un enlace a una copia gratuita del documento.

    • Mathieu Stephan dice:

      último enlace a la página a la que he vinculado:
      http://cg.cs.uni-bonn.de/en/publications/paper-details/HeideCVPR2014/

      • Jon Hollander dice:

        ¡Gracias! Solo vi el enlace SIGGRAPH vinculado al principio. ¡Buen trabajo!

  • jc dice:

    envíe un correo electrónico a la persona y el 99% de las veces le enviarán un pdf o un enlace

  • Jon Hollander dice:

    Aquí hay un enlace al periódico. http://cg.cs.uni-bonn.de/en/publications/paper-details/HeideCVPR2014/

  • Matiaso_H dice:

    Mientras estoy aquí, podría agregar una llamada a todos los piratas informáticos: POR FAVOR, alguien hará que Kinect One se ejecute a las frecuencias de modulación habituales y genere imágenes de fase sin procesar. (He hablado con mucha gente en Microsoft, nunca sucederá oficialmente). Sería mucho más agradable poder utilizar inmediatamente hardware bien creado para este tipo de trabajo.

    • Koa dice:

      Microsoft simplemente lanza fuentes de Windows XP, podríamos combinar el kernel de Linux con el rendimiento y la usabilidad de XP.

      • barry99705 dice:

        Hahahahahahahahahahahahahahahahahaha !!

      • Ingenuo de patas azules dice:

        Jajaja. No tengo idea si esto es serio o una broma, pero es gracioso de todos modos.

        Dicho esto, sería bastante bueno si publicaran una fuente para, digamos, Windows 95, solo para errores.

      • Dave Davidson dice:

        Se creó un sistema operativo híbrido, se comió Internet y todo lo que había dentro.

  • alfie275 dice:

    Me recuerda a http://newsoffice.mit.edu/2012/camera-sees-around-corners-0321

    • Matiaso_H dice:

      Aquí está el consejo que envié a tips@la-tecnologia.com. Al parecer, no toda la información apareció en la publicación.

      Queridos todos

      Permítanme hacer sonar mi propia bocina, pero este es un proyecto del que estoy muy orgulloso porque muestra el poder del análisis multicanal en combinación con las cámaras básicas.

      Ciertamente te has encontrado con el MIT y su increíble línea de trabajo “femto-fotográfica”, donde utilizaron la maquinaria óptica más pesada para grabar videos de luz en movimiento en una escala de tiempo de picosegundos. [1], luego demostró que puede usar estos datos para reconstruir objetos fuera de la línea de visión [2]. Suena similar a la fotografía dual en 2005 [3], excepto que aquí, ni una fuente de luz ni una cámara pueden ver directamente el objeto, por lo que hay otro nivel de desconexión. Así que merecidamente recibieron mucha prensa por su trabajo.

      De todos modos, solo pudimos demostrar que también es posible usar sensores de tiempo de vuelo estándar por unos pocos cientos de dólares, especialmente usamos PMD CamBoard Nano [4] – básicamente equivalente a Kinect One (desbloqueado). El año pasado mostramos la captura de luz en vuelo con lectores de imágenes a distancia [5]. Ahora imagina mirar una pared con un dispositivo de este tipo y luego poder reconstruir lo que hay detrás de ti. Nuestra reconstrucción se basa en un modelo genérico (simulación de luz en vuelo), cuyos parámetros mejoramos para aprender más sobre la geometría oculta y la reflectividad. Podemos reconstruir un detalle a escala centimétrica a partir de luz reflejada de forma difusa triple. Presentaremos el método y los resultados esta semana en la conferencia CVPR 2014 [6].

      Además, nuestra solución involucra a muchos piratas informáticos en el CamBoard. Si bien eliminamos el pegamento derretido al 50%, que fue nuestro primer prototipo de cámara, perforamos el paquete del sensor (literalmente) para inyectar señales modulares personalizadas y sincronizarlas con el propio ciclo de exposición de la CamBoard. [7]. Toda la soldadura por reflujo se realiza bajo una atmósfera de vapor de queso cuidadosamente adaptada en la tostadora de nuestra cocina grupal.

      [1] http://web.media.mit.edu/~raskar/trillionfps/
      [2] http://web.media.mit.edu/~raskar/cornar/
      [3] http://graphics.stanford.edu/papers/dual_photography/
      [4] http://www.pmdtec.com/products_services/reference_design.php
      [5] http://www.cs.ubc.ca/labs/imager/tr/2013/TransientPMD/
      también: https://la-tecnologia.com/2013/05/18/filming-light
      [6] http://cg.cs.uni-bonn.de/multipath
      [7] Imágenes adjuntas: chip LFCSP-56 de paso de 0,5 mm colocado manualmente y soldado en forma de pizza a una placa generadora de señal de 4 capas; CamBoard enano con modificaciones; cámara de cola caliente histórica utilizada para nuestro proyecto SIGGRAPH 2013

      Hola,
      Matías

  • Calumniadores dice:

    aparentemente el nuevo Kinect llega a windows (lo siento linux)
    http://www.microsoft.com/en-us/kinectforwindows/Purchase/developer-sku.aspx

    • Matiaso_H dice:

      Sí, pero sin datos brutos y sin configuraciones habituales. En ese momento tienes un mapa profundo, ya es demasiado tarde

      • Greenaum dice:

        Solo piense … las cosas que hacen las nuevas Kinect / estas cámaras parecen depender de enviar un pulso de luz muy corto. Me pregunto qué tan molesto o incluso notar esto es para las personas, y qué tan sensible es la iluminación de la sala de sensores.

        Pensé que la luz de la cámara pulsaba a 100 / 120Hz, ¿eso ayudaría? IE detecta la parte más oscura del ciclo, luego, al sincronizar la propia luz del sensor, parpadea, 100/120 veces por segundo.

        De hecho, si eso resulta útil, solo durará si las luces parpadean. ¿Las bombillas LED usan condensadores para atenuar su CC?

        • Matiaso_H dice:

          Estos son sensores demodulares, básicamente el equivalente a un amplificador clave por píxel. Solo son sensibles a la luz modulada a la frecuencia correcta (típicamente 25-120 MHz) y no a la iluminación ambiental. Además, infrarrojos, para que la imagen RGB no contamine y los humanos no nos molestemos.

          • Greenaum dice:

            ¡Ah! ¡Sabio! Gracias.

  • Thomas Wrobel dice:

    Un proyecto maravilloso.
    Me recuerda a ese episodio de TNG donde reconstruyen algunas de las sombras del escenario.

    ¿Podría hacerse algo como esto con una de esas lentes de campo de luz también?

Eva Jiménez
Eva Jiménez

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *