Lleve los algoritmos de aprendizaje profundo a sus cámaras de seguridad

La IA está revolucionando rápidamente la industria de las cámaras de seguridad. Varios fabricantes venden cámaras que utilizan el aprendizaje profundo para detectar automóviles, personas y otros eventos. Sin embargo, estas cámaras inteligentes generalmente cuestan en comparación con sus pares "tontos". [Martin] fue capaz de llevar estas funciones de detección a una cámara estándar con una Raspberry Pi y un poco de ingenio.

[Martin’s] El objetivo era capturar eventos interesantes, como una persona en la pantalla o un automóvil en el camino de entrada. Luego, los datos sobre los eventos se publicarían en un tema MQTT, junto con algunos metadatos, como un nivel de confianza. OpenCV generalmente funciona cuando comienzan estas canalizaciones, pero [Martin’s] La cámara no enviaría imágenes RTSP a través de TCP como requiere OpenCV, solo RTSP a través de UDP. Para resolver esto, Martin captura el flujo de video a través de FFmpeg. El aprendizaje profundo de la magia de la IA lo maneja la biblioteca de flujo oscuro, que a su vez se basa en Tensorflow de Google.

Martin probó su reconocimiento con algunas cámaras PTZ chinas baratas, y el procesamiento funcionó con una Raspberry Pi remota. Hasta ahora los resultados han sido buenos. El sistema puede reconocer a las personas, los animales y los automóviles que se detienen en el camino de entrada. ¡Su código está disponible en GitHub si desea activarlo usted mismo!

  • Gravis dice:

    Anticipo que alguien usará esto para proteger un santuario de aves de las ardillas con una torreta de airsoft.

    • Millas arquero dice:

      Aquí. Pero no una pajarera, sino mis tomates. Y probablemente una inyección de pintura. No creo que el airsoft sea lo suficientemente poderoso como para disuadir a las ardillas, además no quiero la basura.

  • chango dice:

    "Estás siendo observado. El gobierno tiene un sistema secreto, una máquina que te espía cada hora de todos los días. "

    • Doc dice:

      Qué buen espectáculo.

    • Olsen dice:

      Está a la altura de los juegos de guerra para los "programas favoritos de hachas falsas"

    • Bob Fleming dice:

      El mejor espectáculo de todos los tiempos.
      Quiero que hagan un subproducto.

    • kbaud dice:

      +1 para el programa "Persona interesante". Comienza como un procedimiento policial. Gira sobre algo mucho más genial.

    • Scott T Winterringer dice:

      Les deseo todos los días que continúen esta serie

    • Rollyn01 dice:

      Estoy muy feliz de saber que no soy el único sin parentesco aquí.

  • Ostraco dice:

    Recuerda cuando la gente usaba Pogoplugs para agregar un poco más a sus cámaras.

  • bty dice:

    proyecto divertido, pero 1 fotograma cada 5 segundos es una seguridad bastante inútil.

    • bty dice:

      también dice "Idealmente, esta configuración funcionará con Raspberry Pi 3 B +, tengo una en orden". Entonces no funciona con Pi en este momento.

      • bty dice:

        o al menos no 3B + entonces ...

        • Tore Lund dice:

          La detección de rostros (no el reconocimiento) se puede realizar a 10-15 fps con OpenCV en Raspberry pi 2. Por lo tanto, Pi 3 tiene que ser muy rápido. ¿Pero no entiendo la ventaja de una cámara de control capaz de clasificar sus disparadores? Por lo general, confía en otros sensores junto con la detección de movimiento para filtrar los disparos falsos. por lo que ambos necesitan un disparador PIR, una pausa láser o un evento de detección de impacto, mientras se detecta movimiento para activar un evento. La detección de movimiento en las cámaras también ha crecido, a diferencia del antiguo Movimiento Linux, que simplemente detectaba una diferencia porcentual entre fotogramas. Ahora las cámaras utilizan algoritmos de detección de vectores para poder definir el tamaño y la velocidad del objeto, de modo que la nieve, los coyotes y las aves ya no sean un problema.

          • Doc dice:

            Tengo una cámara apuntada a un área con un árbol pequeño. El movimiento de la misma en el viento es suficiente para activar el movimiento a detectar durante todo el día. Sería hinchado si pudiera decirle que solo grabe cuando vea personas o autos. Especialmente si puedo decirle que se registre y también pincharme cuando ve un camión UPS o un camión Fedex pasando por la calle.

    • Olsen dice:

      Dado que todas las cámaras son cajas * nix, no veo por qué no pueden tener disipadores calientes instalados y ejecutar la red de forma nativa. Tal vez sea lento, pero tiene que haber alguna forma de utilizar las redes para simplificar los datos y realizar un preprocesamiento integrado antes de que se envíen a la Pi.

      • Pedro dice:

        Es difícil obtener acceso de root la mayor parte del tiempo, pero la parte más difícil sería el procesamiento.

      • Jii dice:

        No veo por qué debería funcionar una vez en 5 segundos, no hay ninguna razón dada. Podría ser más rápido.

        Estaba el artículo sobre la cámara con firmware de código abierto:
        https://la-tecnologia.com/2018/03/05/customising-a-30-ip-camera-for-fun/
        Agregue esto y vea qué tan bien funciona. Al menos el firmware original es capaz de rastrear objetos en movimiento. La identificación requiere más ciclos, pero también podría hacerlo. Solo hay que intentar ver.

        • Jii dice:

          Lo miré un poco más. El procesador T20 de esta cámara conectada tiene un máximo de 1Ghz, pero admite algunas instrucciones SIMD. Según la propaganda de Ingenix, "admite un algoritmo de análisis inteligente flexible y cambiante en tiempo real. Como detección de movimiento, detección de cuerpos, reconocimiento de matrículas, etc."

          Y alguien preguntó sobre el problema de una vez en 5 y la respuesta fue que, de acuerdo con la configuración dada, RPi solo se puede hacer una vez en 3 como máximo.

    • TGT dice:

      Realmente no. Parece que aún podría guardar el video sin procesar a cualquier fps nativo de la cámara, pero tendría metadatos sobre lo que hay en el cuadro cada cinco segundos. Eso ahorraría muchísimo tiempo buscando horas de fotografías.

  • MacGyver dice:

    ¿Perrito caliente o no perrito caliente?

    • TacticalNinja dice:

      El Chupacabras - 1%

      • Marcos dice:

        El Chimichanga - 99%

  • echodelta dice:

    “Intruso” de compras visto, suena la alarma.

    Sí, una guerra total contra los desechos plásticos del aire se dirigía al mar. Eso debería ganar el premio HaD. ¡Vínculos de prueba de compra con una identificación personal en cada contenedor de soporte con etiqueta nano! Envoltorios de goma, colillas de cigarrillos sin límite. Echarlos de la Tierra, se unieron a la colonia marciana.

    Siempre me he preguntado cuál es la diferencia entre una roca sólida irregular y una bolsa de papel arrugada cuando la ves en la carretera cuando yo la veo y Uber "eso" lo ve. No hace falta decir que el usuario de la maleta tiene que pagar incluso si Uber me esquiva.

    • Dave dice:

      o, alternativamente, podría pedirles a los fabricantes que vuelvan a usar materiales reciclables como papel (papel encerado), porque seamos justos, la razón por la que se usaba plástico para cosas como bolsas y paquetes estaba dirigida por empresas que querían obtener más ganancias.
      Debido a que una bolsa de plástico es más barata que una de papel y los accionistas quieren sus dividendos, ¿quién es realmente el culpable, verdad?

      Cada enfoque en los consumidores para salvar el planeta es pura tontería.
      Son fabricantes culpables y la amistad / cabildeo del gobierno les permite salirse con la suya.

      Encuentre el mal en la sociedad y, al final, encontrará un motivo para obtener ganancias / crecimiento continuo y la codicia de los accionistas suele ser la razón.

  • Ricardo dice:

    Tenía un rastreador personal HOG impulsado por PI que funcionó muy bien con mi PTZ durante las pruebas, siguiendo formas humanas dibujadas contra un fondo muy desordenado, pero cuando lo "implementé" en el camino desde nuestra casa, estaba inmediatamente obsesionado con el líneas verticales de un techo ondulado ...

    Era lo suficientemente rápido como para hacer panorámicas en tiempo real y seguimiento de zoom, pero el openCV HOG siempre falsificaba un positivo en el techo corrugado, por lo que cuando el objetivo se acercó al cobertizo, la cámara todavía estaba allí ...

    Nunca comencé a retenerlo, pero supongo que tengo que hacerlo para que funcione de manera confiable. (enmascarar el cobertizo parecía una mala solución)

    Realmente no entiendo por qué las líneas verticales confunden el algoritmo HOG tan fácilmente.

    Si alguien tiene algún consejo sobre la reeducación de HOG con openCV en python, ¡hágamelo saber!

    • Rollyn01 dice:

      ¿Es posible que interprete las rectas como un movimiento? Esa puede ser la razón por la que los obsesiona. O eso, o los usa constantemente como referencias para la alineación, pero no volverá a la detección efectiva.

  • Punkdigerati dice:

    Creo que esto podría usarse para poder responder la pregunta: ¿ha entrado un gato y todavía no se ha ido?

  • Tyranis Khan dice:

    "Bufferscotch, ¿qué le estás haciendo a esa oveja?" ¿Es eso incluso legal en este estado? ¿Por qué no me incluyeron en un tema candente? "

  • Rodney McKay dice:

    ¡Oh cariño! ¡Puedo dejar de pagar el ridículo precio por una suscripción a Nest Aware!

Nora Prieto
Nora Prieto

Deja una respuesta

Tu dirección de correo electrónico no será publicada.