Liquid AI anunció hoy el lanzamiento de sus Liquid Foundation Models (LFM2) de última generación, que baten récords de velocidad, eficiencia energética y calidad en la clase de modelos en el perímetro. Esta versión se basa en el enfoque orientado a principios de Liquid AI para el diseño de modelos. A diferencia de los modelos basados en transformador tradicionales, LFM2 está compuesto por operadores estructurados y adaptativos que permiten un entrenamiento más eficiente, una interferencia más rápida y una mejor generalización, especialmente en situaciones de contextos largos o recursos limitados.
Liquid AI abrió el código de su LFM2 y presentó la novedosa arquitectura con total transparencia ante el mundo. Los “weights” de LFM2 ya pueden descargarse de Hugging Face y también están disponibles a través de Liquid Playground con fines de prueba. Liquid AI anunció además que los modelos se integrarán en su plataforma de IA en el perímetro y en una aplicación orientada a usuarios nativa de iOS para realizar pruebas en los próximos días.
“En Liquid, diseñamos los mejores modelos fundacionales de su clase pensando en la calidad, la latencia y la eficiencia de memoria”, afirmó Ramin Hasani, cofundador y director ejecutivo de Liquid AI. “La serie de modelos LFM2 está diseñada, desarrollada y optimizada para la implementación en dispositivos en cualquier procesador, para un acceso verdadero a las aplicaciones de IA generativa y agéntica en el perímetro. LFM2 es el primero en una serie de potentes modelos que publicaremos en los próximos meses”.
El lanzamiento de LFM2 representa un hito en la competencia de IA global, y es la primera vez que una empresa estadounidense demuestra públicamente claras ventajas de eficiencia y calidad sore los modelos de lenguaje pequeños de código abierto líderes de China, incluidos los desarrollados por Alibaba y ByteDance.
En evaluaciones mano a mano, los modelos LFM2 tuvieron un mejor rendimiento que los más avanzados de la competencia en comparativas de velocidad, latencia y ejecución de instrucciones. Aspectos destacados:
- LFM2 exhibe un 200 por ciento más de rendimiento y una latencia más baja que Qwen3, Gemma 3n Matformer y cualquier otro modelo autorregresivo basado y no basado en transformadores disponible hasta la fecha, en CPU.
- El modelo no solo es más rápido, sino que además tiene un rendimiento promedio significativamente superior que los otros modelos en cada clase de tamaño en cuanto a ejecución de instrucciones e invocación de funciones (los principales atributos de los modelos de lenguaje pequeños para diseñar agentes de IA confiables). Esto hace que LFM2 sea la opción ideal de modelos para casos de uso locales y en el perímetro.
- Los LFM construidos sobre esta nueva arquitectura y la nueva infraestructura de entrenamiento exhiben una mejora del 300 por ciento en la eficiencia de entrenamiento respecto de las versiones anteriores de LFM. Esto los convierte en la manera más eficiente de construir sistemas de IA aptos para uso general.
Migrar modelos generativos grandes de nubes lejanas a modelos de lenguaje pequeños optimizados en un dispositivo permite acceder a latencia de milisegundos, resiliencia sin conexión y privacidad con soberanía de datos. Hablamos de funcionalidades esenciales para teléfonos, computadoras portátiles, automóviles, robots, wearables, satélites y otros terminales que deben razonar en tiempo real. Al agregar verticales de alto crecimiento como pilas de IA en el perímetro en productos electrónicos de consumo masivo, robótica, electrodomésticos inteligentes, finanzas, comercio electrónico y educación, sin contar las asignaciones en los sectores de defensa, espacio y ciberseguridad, el mercado total disponible de los modelos fundacionales privados y compactos se acerca a la cifra de un billón de dólares para 2035.
Liquid AI trabaja con una gran cantidad de empresas del listado Fortune 500 en estos sectores. Ofrecen modelos fundacionales pequeños ultraeficientes con una pila de implementación de nivel empresarial segura que convierte cada dispositivo en un dispositivo de IA (local). Esto le brinda a Liquid AI la oportunidad de obtener una gran participación en el mercado, en un contexto donde las empresas están migrando de modelos de lenguaje pequeños en la nube a inteligencia in situ privada, rápida y rentable.
Acerca de Liquid AI:
Liquid AI está a la vanguardia de la innovación en inteligencia artificial y desarrolla modelos fundacionales que establecen nuevos estándares de rendimiento y eficiencia. Con la misión de diseñar sistemas de IA eficientes y de uso general para toda escala, Liquid AI sigue forzando los límites de la cantidad de inteligencia que puede integrarse en teléfonos, computadoras portátiles, automóviles, satélites y otros dispositivos. Más información en www.liquid.ai.
El texto original en el idioma fuente de este comunicado es la versión oficial autorizada. Las traducciones solo se suministran como adaptación y deben cotejarse con el texto en el idioma fuente, que es la única versión del texto que tendrá un efecto legal.
Vea la versión original en businesswire.com: https://www.businesswire.com/news/home/20250710879926/es/