Hemos visto especialmente durante los últimos meses cómo se han reproducido lanzamientos de modelos con miles de millones de parámetros que requieren una gran potencia de procesamiento. Por otro lado, también existe una tendencia creciente que gira en torno a la capacidad de ejecutar modelos ligeros en tiempo real sin necesidad de conexión constante en dispositivos de bajo consumo como microcontroladores, sensores y otros sistemas embebidos que también está revolucionando la industria de la IA. Esta tendencia se conoce como TinyML.
TinyML, abreviatura de Tiny Machine Learning (aprendizaje automático diminuto), es un campo del aprendizaje automático que se centra en implantar modelos de aprendizaje automático en dispositivos diminutos y de bajo consumo.
El desarrollo de soluciones ML va tan rápido que se centra en soluciones basadas en la nube de alta potencia o altas capacidades computacionales cuando se trata del Edge. Hemos podido ver especialmente durante estas semanas cómo se publican modelos con miles de millones de parámetros que requieren mucha potencia para ser ejecutados. Se puede ver como la tendencia obvia en el espectro de dispositivos con recursos limitados, que requerimos un paradigma diferente, este paradigma es el llamado TinyML que ha ganado popularidad en los últimos 4 años.
Este paradigma se encuentra en una fase incipiente, sólo un pequeño espectro de lo que es posible con soluciones de ML puede ejecutarse en dispositivos con recursos limitados, y menos aún teniendo en cuenta que la mayoría de ellos funcionan con baterías. Para implementar la ejecución de los modelos en estos dispositivos existe una versión específica de TensorFlow Lite que está basada en microcontroladores. Sin embargo, la misma comunidad en torno a este paradigma también propone e implementa sus soluciones.
TinyML es, por tanto, dos de los conceptos mencionados, una metodología y una comunidad implícita que aporta soluciones para la ejecución de modelos en dispositivos con fuertes limitaciones, y hay un contexto en el que estas limitaciones, además de estar especialmente presentes, se agravan, y es la industria.
Hemos visto especialmente durante los últimos meses cómo se han reproducido lanzamientos de modelos con miles de millones de parámetros que requieren una gran potencia de procesamiento. Por otro lado, también existe una tendencia creciente que gira en torno a la capacidad de ejecutar modelos ligeros en tiempo real sin necesidad de conexión constante en dispositivos de bajo consumo como microcontroladores, sensores y otros sistemas embebidos que también está revolucionando la industria de la IA. Esta tendencia se conoce como TinyML.
El caso más común que podemos ver en la industria es el de componentes y máquinas críticos para el negocio que requieren una detección temprana de fallos o averías para no romper ningún proceso, y evitar costes de mantenimiento a las empresas.
Servicios Ping se especializa en este tipo de casos monitorizando constantemente el sonido de las hélices de los molinos. Detectar anomalías en el comportamiento basándose en el sonido no sólo reduce los costes de mantenimiento, sino que también es posible mejorar la eficiencia y mantener latencias aceptables en todo momento.
Si nos ceñimos al mantenimiento predictivo, hay un gran número de sentidos que podemos poner en marcha con un bajo coste energético y que nos pueden dar información sobre el estado de las máquinas a través de factores como la vibración, la temperatura, las imágenes de calor y cualquier otra opción que nos den los sensores disponibles.
La metodología TinyML en la industria no sólo proporciona casos de uso como los mencionados anteriormente, sino que, paralelamente, también puede ser un facilitador de la innovación. Hay muchas situaciones en las que no es posible realizar nuevas instalaciones en entornos industriales, lo que resulta especialmente crítico en entornos relacionados con productos químicos, en los que resulta extremadamente costoso realizar una nueva instalación cableada por motivos relacionados con la seguridad. Por ejemplo, la presencia de la directiva ATEX puede hacer que la aplicación de soluciones de vanguardia pero cableadas sea una tarea complicada o engorrosa. En algunos casos, tener la capacidad de ejecutar modelos ML en dispositivos que simplemente requieren una batería corriente para funcionar durante años, proporciona una solución a ciertos bloqueos que pueden permitir la ejecución de un proyecto.
La expansión en el uso de TinyML en entornos industriales sigue creciendo gracias a su poder habilitador e innovador, y cabe destacar que esto ha sido en parte gracias a plataformas emergentes y democratizadoras de esta metodología como son Edge Impulse, Neuton, Qeexo y SensiMLentre otros, que proporcionan herramientas y recursos AutoML para desarrolladores de aprendizaje automático integrado.
TinyML sigue ganando impulso, el procesamiento y la clasificación de vídeo ya no son un mito gracias a soluciones como MCUNet. ARM está cada vez más comprometida con el suministro de soluciones adaptadas a este contexto, y las comunidades de todo el mundo florecen empujando los límites de lo que es posible por debajo de 256kB de SRAM.
Se avanza a gran velocidad, pero aún no hemos visto la adaptación de muchos modelos que serán de gran utilidad en contextos industriales una vez que su coste computacional sea asumible para estos pequeños microcontroladores.
Todo esto sugiere que el ML también se desarrollará en esta dirección en los próximos años, teniendo en cuenta los entornos hostiles en los que no siempre es posible acceder a la cantidad ilimitada de recursos a la que estamos acostumbrados en esta era de crecimiento exponencial en los campos tecnológicos.
ABI Research prevé que el mercado de TinyML pase de 15,2 millones de implantaciones en 2020 a 2.500 millones en 2030, lo que confirma el brillante futuro que le espera. Si conseguimos que esta vibrante comunidad de desarrolladores siga creciendo y prevaleciendo, veremos cómo las expectativas aumentan aún más durante estos apasionantes años que se avecinan.
Descubra las últimas tendencias y las mejores prácticas en la implementación de Machine Learning(#ML) en el Edge, desde la optimización, y el despliegue hasta la monitorización con OWKIN, APHERIS, MODZY, PICSELLIA, SELDON, HPE, NVIDIA y BARBARA Aprenda cómo:
🔒 Mejorar el acceso a los datos, la seguridad y la privacidad mediante el aprendizaje federado.
💪 Las herramientas, sistemas y estructuras que necesitas poner en marcha para la IA en tiempo real.
🚀 Mejorar el rendimiento de los modelos por visión por ordenador.
⚙️ Ejecutar con éxito la inferencia de modelos de aprendizaje automático
💡 Optimizar los modelos ML para dispositivos en el edge.
🔒 Securizar tus modelos de ML en el edge.