Liquid AI ha dado un paso importante en el ámbito de la inteligencia artificial, especialmente para aquellas empresas que priorizan la privacidad y el control de sus datos. Han lanzado LocalCowork, una solución open-source que permite ejecutar flujos de trabajo de agentes de IA de manera local, sin necesidad de conexión a la nube. Esto es posible gracias a su modelo LFM2-24B-A2B, una arquitectura MoE híbrida optimizada para el hardware de consumo.
Entendamos esto. En un mundo donde la IA se ha vuelto casi sinónimo de la nube, la propuesta de Liquid AI es un soplo de aire fresco para las PYMEs y sectores regulados. El modelo LFM2-24B-A2B cuenta con 24B de parámetros totales, pero activa solo 2.3B por token. Esto se traduce en una eficiencia brutal: bajo consumo de memoria y una inferencia rapidísima (222 t/s de salida, con un tiempo de primera respuesta de 0.43s), incluso en entornos con alta concurrencia. Esto es crucial si necesitas que tus agentes trabajen deprisa y a gran escala.
Revolucionando los Flujos de Agentes con LFM2-24B-A2B
La arquitectura de este modelo es lo que lo hace destacar. Combina bloques de convolución LIV double-gated con bloques GQA, permitiendo un contexto de 32K tokens y un vocabulario de 65K. Se ha entrenado con 17 billones de tokens y soporta 9 idiomas, lo que lo hace ideal para empresas con operación internacional o que necesitan procesar datos multilingües. Su diseño como modelo de ciclo interno rápido es idóneo para pipelines multi-agente de alto volumen, destacando en tool calling nativo, búsqueda web y la generación de salidas estructuradas, esenciales para automatizar tareas complejas.
La clave aquí es que LocalCowork permite desplegar estos agentes en tus propios AI PCs usando herramientas como Ollama, LM Studio, Cactus o Nexa AI. Esto significa que industrias con regulaciones estrictas, como finanzas o salud, pueden aprovechar la IA sin comprometer la privacidad de sus datos al no tener que subirlos a la nube. El rendimiento es impresionante: benchmarks demuestran 26.8K tokens/seg en un H100 con 1024 peticiones concurrentes, superando a otros modelos MoE comparables. Si estás buscando mejorar la eficiencia de tus operaciones de IA con RAG o uso de herramientas, esta es una opción muy a considerar.
Análisis Blixel: Implicaciones Prácticas y Estrategias para tu Negocio
La propuesta de Liquid AI con LocalCowork y LFM2-24B-A2B no es solo un avance técnico; es una oportunidad de negocio tangible. Para PYMEs, esto significa acceso a capacidades de IA avanzadas que antes estaban reservadas para grandes corporaciones o implicaban riesgos de privacidad inasumibles. Si tu empresa maneja datos sensibles o está bajo regulaciones estrictas, esta solución te permite integrar IA de forma segura, manteniendo el control total sobre tu información. Olvídate de los debates sobre dónde residen tus datos o quién tiene acceso a ellos.
¿Qué puedes hacer ahora? Evalúa tus flujos de trabajo actuales e identifica dónde un agente de IA local podría optimizar procesos. Piensa en asistencia al cliente (chatbots), análisis de documentos internos, gestión de inventario, o incluso generación de informes basados en tus propios datos. La flexibilidad del despliegue en AI PCs es un punto fuerte: no necesitas una infraestructura compleja para empezar. Además, para aquellos que buscan escalabilidad y no tienen problemas con la nube, LFM2-24B-A2B también está disponible en Together AI, con un SLA del 99.9% y precios muy competitivos ($0.03/1M input, $0.12/1M output). Esto te da la libertad de elegir el enfoque que mejor se adapte a tus necesidades y presupuesto.
Fuente: Marktechpost


Deja una respuesta