La IA en el perímetro se ha convertido en una tecnología revolucionaria para el mundo industrial. Las industrias con activos críticos muy distribuidos serán las grandes beneficiarias de llevar la informática avanzada al Edge.
Desde que se incorporó como campo de estudio en 1956 en las universidades, la Inteligencia Artificial ha pasado por periodos de optimismo y pesimismo a partes iguales. No cabe duda de que hoy asistimos a uno de gran optimismo.
Data Science es el tercer puesto de trabajo más buscado a nivel mundial (de hecho, en nuestro reciente estudio, sobre el Estado del Edge Computing en España, Data Scientist es el profesional más buscado entre las empresas españolas) en un mercado que está experimentando un crecimiento exponencial, que alcanzará hasta los 190.000 millones de dólares en 2025.
Es tal el protagonismo de la IA en el mercado de la Industria que ya no tiene sentido hablar de ella como una tecnología, sino como muchas ramas que sirven para diferentes usos y a diferentes industrias.
Esto está perfectamente dibujado en el "Hype cycle" de Gartner de 2021.
Entre las tendencias identificadas como las más maduras y cercanas a la fase de producción se encuentran aquellas con las que podemos identificarnos, en nuestra rutina diaria. Como el procesamiento del lenguaje llano que utilizamos cuando hablamos con chatbots cada vez más parecidos a los humanos, las imágenes automáticas que permiten automatizar el procesamiento de vídeo en tiempo real y las búsquedas semánticas, que conducen a mejores resultados de búsqueda.
En el otro extremo, hay otras más futuristas que no surgirán hasta dentro de al menos 10 años. Algunos ejemplos interesantes son las tecnologías de IA TRISM (Trust, Risk and Security Management) , que permiten regular los modelos de IA haciéndolos más resistentes a los ataques a la seguridad y la privacidad, y los Transformers, que permiten adaptar los modelos de IA para que se ajusten al contexto y tendrán un gran impacto en la mejora de aplicaciones como los traductores, la creación automática de documentos o el análisis de secuencias biológicas.
Entre ambos extremos se encuentran otras tecnologías facilitadoras que tardarán entre 2 y 5 años en alcanzar la madurez comercial, lo que puede denominarse el "futuro próximo de la IA". Entre ellas se encuentran la IA centrada en el ser humano, la IA generativa, la orquestación y automatización de la IA y, a la cabeza de todas las demás en la curva de madurez, la IA en la periferia, también conocida como "Edge AI".
La IA de borde se puede resumir como la capacidad de ejecutar algoritmos de inteligencia artificial en dispositivos (dispositivos IoT, dispositivos de borde) que están muy cerca de la fuente de datos. Esta tecnología está creciendo debido a una estadística desalentadora: más del 60 % de las organizaciones industriales no disponen de una infraestructura en la nube que les ayude a innovar de forma eficiente.
En Barbara estamos encontrando patrones repetidos en industrias que están a la vanguardia en Edge AI. Todas ellas manejan muchos activos críticos distribuidos. Es decir, son industrias que se enfrentan a grandes retos de fragmentación tecnológica, escalabilidad y ciberseguridad y que se pueden minimizar ejecutando algoritmos de IA en el edge. Podemos pronosticar que estas industrias desarrollarán casos de uso muy ambiciosos y transformadores; hasta el punto, que están muy familiarizados con conceptos como IoT Edge y Edge Computing.
Los sistemas SCADA que se vienen utilizando desde los años 80 tienen finalidades similares en cuanto a recogida y procesamiento de datos. Sin embargo, los sistemas SCADA necesitan complementarse con tecnologías más modernas para que puedan responder a los requisitos cada vez más exigentes de interoperabilidad, apertura y seguridad, donde Edge AI puede ayudar y puede multiplicar el valor de estos sistemas.
Existen diferentes interpretaciones sobre el significado de "borde" cuando nos referimos a Edge AI. El Edge tiene profundidad. Tradicionalmente, el borde se ha identificado como la infraestructura del operador de red más cercana al usuario. Cuando hablamos de redes 5G, nos referimos a operadores que están desplegando multitud de nodos denominados "Multiaccess Edge Computing" que se utilizan para el procesamiento de datos cercano. Estos nodos están instalados en servidores muy similares a los que se pueden encontrar en un centro de datos diseñado para albergar servicios en la nube y tienen un alto potencial, así como la capacidad de recursos para procesar algoritmos complejos de IA. Es lo que algunos analistas denominan "Thick" Edge.
Sin embargo, hay otro tipo de Nodos Edge, los que se conectan directamente a sensores y conmutadores que se instalan en dispositivos de baja potencia como gateways o concentradores y ejecutan algoritmos de IA más sencillos con tiempos de respuesta más cortos muy cercanos a las respuestas en tiempo real. Este nuevo tipo de Edge, denominado "Thin" Edge, es muy adecuado para abordar rápidamente proyectos a gran escala que impliquen ubicaciones remotas o requisitos de alta seguridad.
La IA Edge se basa tradicionalmente en modelos de decisión que se entrenan utilizando grandes datos. El modelo, que consiste en una serie de fórmulas matemáticas, se instala en los nodos Edge. A partir de ahí, cada nodo es capaz de tomar sus propias decisiones en función de los datos que recibe y del modelo que se ha instalado.
El nuevo paradigma, conocido como Edge Mesh, hace posible que la decisión de un nodo esté condicionada por la de otros nodos, como si se tratara de una red reticular. Un buen ejemplo para entender la potencia de esta nueva arquitectura es un sistema de tráfico inteligente.
Un nodo Edge puede tomar decisiones sobre la hora de un semáforo utilizando algoritmos de IA que tienen en cuenta el número de coches y personas detectados por los sensores. Sin embargo, esta decisión podría complementarse perfectamente con las que tomen otros nodos en calles cercanas.
El objetivo de Edge Mesh es distribuir la inteligencia entre varios nodos para ofrecer mejor rendimiento, tiempos de respuesta y tolerancia a los fallos que con las arquitecturas más tradicionales.
A medida que la industria avanza hacia el despliegue de Edge AI con más nodos distribuidos y algoritmos de entrenamiento más complejos, la capacidad de mantener el ciclo de vida de estos modelos entrenados, y los dispositivos que los ejecutan, será clave para el futuro de esta tecnología.
En este sentido, se potenciarán los proyectos y empresas que apliquen la filosofía DevOps para el desarrollo, despliegue y mantenimiento de algoritmos de IA. Esta filosofía se denomina MLOps, una combinación de Machine Learning y DevOps.
Pero, ¿en qué consiste exactamente? MLOps pretende reducir los tiempos de desarrollo, prueba y aplicación de los modelos de IA en el Edge mediante una integración continua de equipos y entornos de desarrollo, pruebas y operaciones.
No cabe duda de que el intercambio de datos será primordial para mejorar los procesos en los sectores industriales con muchas partes interesadas dentro de la cadena de valor.
Analicemos el modelo de red eléctrica del futuro próximo -una Smart Grid-. Para poder recibir u ofrecer un mejor servicio, es esencial que los proveedores sean capaces de analizar y procesar la información de una serie de partes interesadas como prosumidores, operadores, distribuidores, agregadores, etc. Sin un intercambio de datos transparente y ágil será imposible alcanzar la optimización de la red requerida para 2050.
Con Edge AI es posible un procesamiento de datos on-centralizado, lo que ayudará a superar algunos de los obstáculos a los que se enfrenta actualmente la industria, como la seguridad, la privacidad y la soberanía de los datos.