Despliegue de LLaMA en entornos industriales con Barbara

LLaMA (Large Language Model Meta AI) es una familia de eficientes modelos lingüísticos de código abierto desarrollada por Meta. Diseñado para un rendimiento ligero, LLaMA ofrece potentes capacidades de procesamiento del lenguaje natural al tiempo que optimiza la escalabilidad y la eficiencia. En este artículo, exploramos la facilidad con la que LLaMA puede desplegarse en el Edge con Barbara.

Tecnología

¿Por qué utilizar LLaMA en el borde?

Los modelos LLaMA están diseñados para ser eficientes y escalables, lo que los hace muy adecuados para su despliegue en entornos industriales donde la latencia, la conectividad y los recursos informáticos son limitaciones clave. A diferencia de los LLM basados en la nube, ejecutar LLaMA en dispositivos periféricos (como pasarelas industriales, sistemas integrados o servidores robustos) permite:

  • Procesamiento en tiempo real: información inmediata sin depender de la nube.
  • Privacidad y seguridad - Los datos confidenciales permanecen locales, reduciendo los riesgos de ciberseguridad.
  • Menores costes operativos - Minimiza las tasas de transferencia y almacenamiento de datos en la nube.
  • Funcionalidad offline - Funciona en entornos remotos o de baja conectividad.

LLaMA en el mercado Barbara

Barbara Marketplace ofrece ahora Ollama y Open WebUI, dos aplicaciones que simplifican el despliegue de LLaMA en el borde:

  • Ollama: Un marco ligero optimizado para ejecutar modelos LLaMA de forma eficiente en dispositivos periféricos, garantizando una baja latencia y un consumo mínimo de recursos.
Aplicación Ollama en el Mercado Bárbara

  • WebUI abierta: Una interfaz web fácil de usar que permite a los operadores interactuar con los modelos LLaMA sin problemas, proporcionando información en tiempo real y recomendaciones basadas en IA.
Abre la aplicación WebUI en el Mercado de Barbara

Estas aplicaciones permiten a las empresas industriales integrar rápidamente soluciones basadas en LLaMA en su infraestructura existente, reduciendo la complejidad de la configuración y acelerando la adopción.

Caso de uso industrial: LLaMA para el mantenimiento predictivo

Escenario:

Una empresa de fabricación quiere reducir el tiempo de inactividad de las máquinas y optimizar los programas de mantenimiento. En lugar de confiar en programas fijos o reparaciones reactivas, despliegan un modelo LLaMA afinado en el borde para el mantenimiento predictivo.

Pasos de implementación técnica:

1. Configuración de la infraestructura de borde

  • Mediante el Panel Bárbara, registra un nuevo nodo de borde donde se desplegarán todas las aplicaciones.
Añadir un nuevo nodo al Panel Bárbara‍

2. Ingestión y preprocesamiento de datos

  • Instala los conectores industriales disponibles en Barbara Marketplace para acceder a las Fuentes de Datos y recoger los datos de:
    • Sensores (temperatura, vibración, presión, etc.)
    • Registros de la máquina y códigos de error
    • Registros históricos de mantenimiento
Conectores industriales en el mercado Barbara‍

  • Preprocesamiento: Convierte los datos brutos en entradas estructuradas para el modelo LLaMA utilizando aplicaciones de preprocesamiento como Apache NiFi, Node-RED, Logstash, etc.

3. Perfeccionamiento de LLaMA para la comprensión industrial

  • Entrena al LLaMA utilizando registros históricos de fallos y registros de mantenimiento para reconocer patrones.
  • Utiliza la Generación Mejorada por Recuperación (RAG) para complementar las predicciones de LLaMA con datos de sensores en tiempo real y manuales industriales.
  • Optimiza el modelo con cuantización (por ejemplo, precisión de 4 u 8 bits) para una inferencia eficiente en el hardware de borde.
  • Despliega el modelo entrenado en el Nodo Edge dentro de la aplicación Ollama.
Aplicación Ollama ya desplegada en un Nodo Edge‍

4. Inferencia en tiempo real y detección de anomalías

  • Los conectores industriales desplegados en el Nodo Edge supervisan continuamente las lecturas de los sensores y las introducen en el LLaMA.
  • Si se detectan patrones anormales, LLaMA:
    • Genera un informe en lenguaje natural resumiendo el problema.
    • Recomienda acciones de mantenimiento basadas en reparaciones anteriores.
    • Activa alertas para los técnicos si es necesaria una actuación inmediata.

5. Integración con sistemas industriales

  • Se conecta a SCADA/MES (AVEVA, Ignition, etc.) para la supervisión en tiempo real utilizando las aplicaciones ingester disponibles en nuestro Marketplace.
  • Se sincroniza con el GMAO (Sistema Informático de Gestión del Mantenimiento) para registrar los problemas y automatizar las órdenes de trabajo.
  • Utiliza la aplicación OpenWebUI para generar interfaces de voz o chatbot para que los técnicos puedan consultar el estado de la máquina con manos libres.

La imagen anterior ilustra una implantación completa en un nodo, que comprende los siguientes pasos:

  • Adquisición de datos: Los datos industriales se recogen de un servidor OPC UA mediante un conector.
  • Intermediación de mensajes: Los datos OPC UA se envían a un broker MQTT.
  • Almacenamiento local: Los datos se almacenan en una instancia de Splunk instalada localmente en el dispositivo de borde.
  • Análisis de datos: Los datos almacenados se analizan mediante un modelo LLaMA dentro de la aplicación Ollama.
  • Interfaz Chatbot: Una aplicación Open WebUI genera una interfaz chatbot.
  • Integración en la nube: Los resultados finales se envían a un sistema SCADA de AVEVA en la nube.

Ejemplo: LLaMA en acción

Anomalía detectada en la máquina

Una máquina CNC empieza a mostrar vibraciones anormales. El dispositivo de borde accionado por LLaMA:

  1. Detecta una desviación de los niveles normales de vibración.
  2. Analiza los fallos anteriores y predice que es probable que se trate de un problema del motor del husillo.
  3. Genera un informe en lenguaje natural:
"El motor del husillo de la máquina CNC nº 12 está mostrando signos de desequilibrio. Según los datos históricos, se espera un fallo en las próximas 48 horas. Acción sugerida: Inspeccionar los cojinetes del motor y los niveles de lubricación".
  1. Avisa al equipo de mantenimiento para programar una inspección.
Informe lingüístico generado por Ollama

Otros casos de uso industrial de LLaMA

  • Interfaz hombre-máquina (IHM):
    Los operarios pueden hacer al LLaMA consultas en lenguaje natural como: "¿Por qué se ha parado la cinta transportadora?" LLaMA analiza los registros y proporciona explicaciones al instante.
  • ‍Resumen deregistrosy análisis de fallos:
    LLaMA procesa miles de líneas de registro y resalta los fallos críticos, reduciendo el tiempo de resolución de problemas.
Informe de resumen de registros y análisis de fallos‍
  • Comprobaciones de seguridad y cumplimiento:
    LLaMA escanea las listas de comprobación de seguridad y las normativas, asegurándose de que los operadores siguen las mejores prácticas.
Informe de comprobaciones de seguridad y conformidad

Conclusiones: El futuro del LLaMA en la industria

La adopción de LLaMA en el borde representa un cambio importante en la automatización industrial, que permite a las empresas mejorar la eficiencia, la fiabilidad y la inteligencia de sus operaciones. Aprovechando LLaMA para el mantenimiento predictivo, la detección de anomalías en tiempo real y el conocimiento del lenguaje natural, las empresas pueden:

  • Minimiza las paradas imprevistas y optimiza los programas de mantenimiento.
  • Reduce los costes operativos mejorando la utilización de los activos y alargando la vida útil de los equipos.
  • Mejora la productividad de los trabajadores con la automatización impulsada por la IA y las interacciones intuitivas hombre-máquina.
  • Refuerza la seguridad y el cumplimiento de los datos procesando la información sensible localmente en el borde.
  • Garantiza la adaptabilidad y escalabilidad con modelos que puedan ajustarse a las necesidades industriales en evolución.

A medida quela IA Edge siga evolucionando, LLaMA desempeñará un papel fundamental en la creación de entornos industriales más inteligentes y autónomos. Las empresas que inviertan hoy en soluciones impulsadas por LLaMA obtendrán una ventaja competitiva, aprovechando la IA para impulsar la eficiencia, la seguridad y la innovación.

Sobre Barbara

Barbara es la Plataforma de Orquestación de IA Edge para organizaciones que buscan superar los retos de desplegar IA en entornos altamente distribuidos.

Barbara dota a los gestores de OT de capacidades informáticas para digitalizar los procesos, permitiendo la captura y el procesamiento de datos sin fisuras y la toma de decisiones en tiempo real.

Con Barbara, las empresas pueden desplegar y supervisar modelos de IA en cuestión de minutos, simplemente exportándolos y subiéndolos a la plataforma.

Los equipos de digitalización necesitan una orquestación eficiente de la IA, mientras que los equipos de infraestructura requieren una modernización segura sin interrumpir los sistemas existentes. Barbara permite ambas cosas, orquestando aplicaciones de IA en ubicaciones distribuidas, modernizando la infraestructura y garantizando la seguridad, todo ello sin sustituir los componentes existentes.

Nuestras capacidades incluyen:

Conectores industriales para equipos antiguos o de nueva generación.

Orquestación Edge para desplegar y controlar aplicaciones basadas en Docker en miles de ubicaciones distribuidas.

MLOps Edge, para optimizar, desplegar y supervisar modelos entrenados utilizando hardware estándar o habilitado para GPU.

. - Gestión remota de flotas para el aprovisionamiento, la configuración y las actualizaciones de los dispositivos de borde.

Mercado de aplicaciones Edge certificadas y listas para ser desplegadas.

Ponte en contacto con nosotros para hablar de cómo podemos ayudarte a acelerar tus proyectos de IA Edge.