Mirando las esquinas con la migración FK

El concepto detrás de una línea de visión no lineal (NLOS) parece bastante fácil de entender: un láser hace rebotar fotones en una superficie que ilumina los objetos que están a la vista de esa superficie, pero no del equipo de imágenes. Los fotones, que luego son reflejados o refractados por el objeto oculto, regresan a la ubicación del láser, donde son capturados y procesados ​​para formar una imagen. Básicamente, esto le permite usar cualquier superficie como espejo para mirar alrededor de los ángulos.

Una de las principales desventajas de este método fue la baja resolución y la alta sensibilidad al ruido. Esto llevó a un equipo de la Universidad de Stanford a experimentar formas de mejorar esto. Como se detalla en una entrevista de Información técnica con un estudiante de posgrado [David Lindell], una mejora importante provino de una solución de exposición ultrarrápida que bloquea la mayoría de los fotones que regresan de la pared iluminada, evitando que los fotones reflejados por el objeto se asfixien con este ruido.

La clave para obtener la calidad de imagen deseada, incluso con objetos brillantes y difíciles de visualizar, fue este algoritmo de migración fk. Como se explica en el video incrustado después de la ruptura, analizaron qué métodos se usan en el campo de la sismología, donde se usan vibraciones para visualizar lo que hay dentro de la corteza terrestre, así como radar de apertura sintética y similares. El algoritmo resultante utiliza una secuencia de transformada de Fourier, muestreo e interpolación de espectro y la transformada de Fourier inversa para procesar los datos recibidos en una imagen utilizable.

Este no es un tema nuevo; abordamos una implementación simple de esto por completo en 2011, así como un proyecto de investigadores británicos en 2015. Esta nueva investigación muestra mejoras obvias, lo que hace que esta tecnología sea cada vez más factible para aplicaciones prácticas.

Las aplicaciones obvias para esto, como señalaron los investigadores, incluyen cosas como el procesamiento de datos LIDAR y los automóviles autónomos. Más difíciles son cosas como las imágenes médicas, donde uno podría visualizar incluso lo que generalmente está oculto por tejidos o huesos.

Para aquellos que quieran obtener más información, el documento, las bases de datos y más, tal como se presenta en SIGGRAPH 2019, están disponibles aquí.

  • jiog dice:

    Nada nuevo aqui. La Universidad de Tecnología Militar de Polonia en Varsovia desarrolló una tecnología muy similar para la unidad GROM en 2007. Los dispositivos prototipo AFAIK se montaron en Rosomak BTR y fueron utilizados por el ejército polaco en Irak.

  • Ostraco dice:

    FPGA y DSP al rescate.

  • steve dice:

    bastante épico, parece algo que podría implementarse en el hardware existente y agregarse al equipo para vehículos autónomos.

    • Ostraco dice:

      Tal vez, pero recibir más información no siempre significa una mejor experiencia.

  • Comedias dice:

    La transformada de Fourier se usa para dos propósitos muy distintos en tales aplicaciones. Primero es para el análisis espectral, como en una transformación de un dominio de tiempo a un dominio de frecuencia y el inverso.

    El segundo objetivo es hacer cálculos rápidos. Esto es de la relación entre la transformación y el plegamiento y la correlación. La transformada discreta de Fourier (DFT) realizada por el algoritmo FFT hace que la correlación y el plegado sean mucho más rápidos.

    Sería bueno si HaD siempre pudiera explicar claramente por qué se menciona FFT o Transformada de Fourier, como se hace aquí bastante bien.

    PD: Yo llamaría a esto un escáner de puntos de vuelo en el que algo (¿una pared?) Compone el sensor de luz reflejada.

    • Comedias dice:

      Debería haber visto más videos primero. El procesamiento es bastante complicado. La ventana de tiempo en vuelo más el escaneo deben producir muchos cortes y no son planos (?). Luego, un conjunto de datos de llenado de espacio se demuele de alguna manera. Del comentario de que el LÁSER es 10.000 veces más potente que el año pasado, se puede suponer que pulsa, y el pulso es corto y se utiliza para obtener las franjas horarias y hace uno o más pulsos para cada posición del escaneo. Muchos datos.

  • jafinch78 dice:

    Estoy pensando en un paso en el algoritmo de procesamiento que tiene características de diferentes materiales, propiedades ópticas (probablemente predichas para ayudar con el procesamiento del tiempo) y posiblemente propiedades electromagnéticas, por lo que tener datos sobre los componentes de energía molecular, por lo que conocer el efecto del transmisor de la fuente podría ser mejor configurados resuelven la imagen con mayor claridad. ¡Un trabajo realmente asombroso!

  • Paul dice:

    Esto utiliza un detector de escaneo único, ligeramente el disco Nipkow de imágenes 3D. El siguiente paso obvio es tener un conjunto de detectores SPAD para hacer el trabajo de manera más eficiente (y más rápida si el procesamiento puede continuar).

    Aunque estoy seguro de que usaron un solo detector de alta calidad, hay arreglos SPAD completos y algunos incluso son baratos, como el VL53L1X de ST, con su arreglo de 256 elementos, que cuesta solo unos pocos dólares. First Sensor, Hamamatsu y e2V fabrican tabletas disponibles comercialmente que podrían funcionar. e2v, en particular, produce matrices de megapíxeles que podrían recopilar datos mil veces más rápido que el enfoque de píxeles de escaneo único.

  • zorro dice:

    Entonces, cuando los robots impulsados ​​por IA comprendan la primera ley de la robótica (la vida superior debe reemplazar la vida anacrónica), podrán cazarnos desde diferentes ángulos, sin ni siquiera presentarnos un objetivo para contraatacar. 🙂 (con un sombrero sarcástico)

    • Comedias dice:

      Die Menschenjaeger. Pueden esperar siglos disfrazados de roca.

Gloria Vega
Gloria Vega

Deja una respuesta

Tu dirección de correo electrónico no será publicada.