Cómo ejecutar aplicaciones ML en hardware de partículas

Con el lanzamiento de TensorFlow Lite en Google I / O 2019, la biblioteca de aprendizaje automático accesible ya no se limita a aplicaciones con acceso a GPU. Ahora puede ejecutar algoritmos de aprendizaje automático en microcontroladores mucho más fácilmente, mejorando la inferencia y la computación integradas.

[Brandon Satrom] publicó una demostración sobre cómo operar TFLite en dispositivos Particle (probados por Photon, Argon, Boron y Xenon) que permite hacer predicciones sobre datos en vivo utilizando modelos previamente entrenados. Si bien algunas de las operaciones informáticas más sencillas que se producen en las MCU requieren la manipulación de datos con ecuaciones existentes (mapeo de entradas analógicas a un rango de porcentaje, por ejemplo), muchas aplicaciones requieren comprender grandes conjuntos complejos de datos de sensores recopilados en tiempo real. A menudo es más difícil obtener resultados precisos a partir de una simple ecuación.

El método actual es entrenar modelos ML en hardware especial, implementar los modelos en la infraestructura de la nube y recuperar los datos de los sensores en la nube para concluir. Al operar la conclusión y la toma de decisiones a bordo, las MCU pueden simplemente actuar sin revisar ningún dato.

Comienza construyendo un modelo TGLite simple para la ejecución de MCU, utilizando el error cuadrático promedio para la pérdida y el descenso del gradiente estocástico para la optimización. Después de entrenar el modelo con datos de muestra, puede guardar el modelo y convertirlo en una tabla C para la MCU. En la MCU, puede cargar el modelo, las bibliotecas TFLite y el solucionador operativo, así como crear un intérprete y tensores. ¡Desde allí, llama al modelo en la MCU y ve sus resultados!

[Thanks dcschelt for the tip!]

Eva Jiménez
Eva Jiménez

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *