Del control reactivo a la predicción anticipada
En la fabricación de hidrocoloides, la calidad es critica: pequeñas variaciones pueden cambiar el comportamiento del producto en aplicación y generar reprocesos o desperdicio. Por eso, la validación suele apoyarse en ensayos de laboratorio y en la experiencia acumulada, con decisiones que muchas veces llegan cuando el lote ya está en marcha.
Singularity Food se planteó como un cambio respecto al enfoque tradicional de calidad: reducir la necesidad de análisis de laboratorio sistemáticos gracias a la capacidad de predecir resultados con inteligencia artificial, estimando el comportamiento del producto terminado a partir de su formulación y de los lotes seleccionados.
Un reto técnico: variabilidad natural y datos incompletos en entorno industrial
El corazón del problema está en la propia naturaleza del proceso. En este tipo de industria, el producto final depende de muchos ingredientes y, al tratarse de materiales de origen biológico, cada lote puede presentar matices distintos: no solo cambia la composición, también la respuesta en aplicación. A esto se suma la realidad operacional, no siempre se dispone de todas las mediciones para todos los lotes, hay cambios de condiciones, y existen registros con valores faltantes o información no homogénea.
El desafío, por tanto, no era únicamente “entrenar un modelo”, sino traducir un histórico industrial complejo en una representación coherente que permitiera comparar formulaciones, aprender relaciones relevantes y evaluar predicciones de forma consistente en condiciones reales.
Un enfoque comparativo, con mirada a lo quantum-inspired
Para abordar este reto, el proyecto siguió un enfoque pragmático: construir un pipeline reproducible de datos y comparar distintas familias de modelos, incluyendo aproximaciones de inspiración cuántica. Esta comparación permitió identificar qué estrategias son más robustas cuando el problema incluye interacciones no lineales, múltiples señales débiles repartidas entre ingredientes y una variabilidad inherente del proceso.
En conjunto, el trabajo permitió alcanzar un comportamiento estable y consistente en la predicción dentro de un marco de validación industrial, y, sobre todo, definir un camino claro para iterar: qué información aporta valor, cómo estructurarla, y cómo evaluar de manera honesta el rendimiento en escenarios de uso.
Resultados clave
1) Aprendizaje aplicable: dónde funciona un enfoque general y dónde conviene especializar
Al evaluar el comportamiento del enfoque predictivo en distintos contextos productivos, el proyecto permitió entender que no todo se comporta igual: en algunas líneas, un modelo más general puede capturar patrones útiles; en otras, la variabilidad y la mezcla de señales hace necesario ir a un nivel más específico. Este hallazgo no es solo técnico: sirve para decidir qué tipo de solución desplegar según el caso de uso y el nivel de fiabilidad requerido.
2) Reducción estructural: controlar la complejidad sin perder la esencia del proceso
Uno de los avances más relevantes fue definir una reducción estructural de la información: en vez de modelar cada detalle como una dimensión distinta, se reorganiza el problema para conservar lo importante (cómo impactan los ingredientes y su relación con el producto final) evitando que la complejidad crezca sin control. En la práctica, esto ayuda a estabilizar el modelado y facilita que la predicción sea más consistente cuando el histórico tiene variabilidad, combinaciones distintas de ingredientes y datos incompletos.
3) De la experimentación a la operación: inferencia accesible vía API
Además del trabajo de datos y modelado, el proyecto dejó preparado el salto a operación con un enfoque claro: una API como punto de entrada único para ejecutar inferencias y recuperar resultados de forma estructurada. Esto permite que los equipos internos no tengan que reproducir pipelines manuales y puedan consumir predicciones de forma controlada y trazable desde sistemas externos.
4) Conexión con SAP: predicción integrada en el flujo industrial
Pensando en adopción real, se definió el camino para integrar el sistema con SAP, de modo que la selección de lotes, el lanzamiento de procesos y la consulta de predicciones puedan conectarse directamente al motor de inferencia. La idea operativa es simple: desde SAP se invoca una única API que enruta al servicio de modelos de Singularity (Multiverse), ejecuta la inferencia y devuelve resultados listos para integrarse en decisiones de planificación y calidad.