Liquid AI 推出新一代「液態」基礎模型 助力企業實現真正的本地端 AI 運算
由麻省理工學院(MIT)電腦科學家於 2023 年創立的新創公司 Liquid AI,在 2025 年 7 月推出了第二代「Liquid Foundation Models」(LFM2)系列。該系列主打市場上最快的本地端基礎模型,採用創新的「液態」架構,訓練和推理效率顯著提升,令小型模型成為雲端大型語言模型(LLM)如 OpenAI GPT 系列及 Google Gemini 的切實替代方案。
LFM2 首發版本涵蓋 3 種規模:3.5 億、7 億及 12 億參數,採用以門控短卷積(gated short convolutions)為主的混合架構,並在品質及 CPU 處理速度上超越同等規模的 Qwen3、Llama 3.2 及 Gemma 3 等競爭者。Liquid AI 傳達的信息明確:手機、筆電及車載設備上的即時、隱私保護 AI 不再需要以犧牲效能換取低延遲。
自推出以來,Liquid AI 不斷擴充 LFM2 產品線,加入專門針對特定任務及領域的變體、一款小型視頻分析模型,及一套名為 LEAP 的邊緣部署工具包,將 LFM2 定位為本地及內部代理系統的控制層。
近期,Liquid AI 在 arXiv 發布了長達 51 頁的 LFM2 技術報告,公開了架構搜尋過程、訓練數據組合、蒸餾目標、課程策略及後訓練流程,並非僅提供模型權重和 API,而是詳細分享一套可重複使用的藍圖,讓其他機構可依此自行訓練符合自身硬件及部署限制的高效小型模型。
以現實限制為核心設計模型,而非依賴 GPU 實驗室
技術報告指出,企業在實際部署 AI 系統時,常遭遇延遲預算、記憶體上限及熱控節流等限制,遠早於標準測試基準出現瓶頸。Liquid AI 直接在目標硬件(包括 Snapdragon 手機 SoC 和 Ryzen 筆電 CPU)上進行架構搜尋,得出一致的結果:以門控短卷積區塊和少量分組查詢注意力(GQA)層為主的簡潔混合架構,優於其他如線性注意力或狀態空間模型(SSM)混合設計,能在真實設備條件下達到更佳的品質-延遲-記憶體平衡。
這對企業團隊有三大意義:
1. 預測性高:架構簡潔且參數使用效率高,從 3.5 億到 26 億參數規模均穩定。
2. 運營可攜性強:密集及 MoE(專家模型)變體共享相同架構骨幹,方便跨硬件部署。
3. 本地端可行性:CPU 上的預填充與解碼速度約為同類開源模型的兩倍,降低對雲端推理的依賴。
這種設計明顯非追求學術新穎,而是務實打造企業可真正投入生產的模型。
優化企業需求的訓練流程
LFM2 透過結構設計彌補模型規模較小的限制,訓練過程包括:
– 1000 億至 1200 億字元的預訓練,以及額外的 3.2 萬字元上下文中期訓練,延長上下文視窗而不大幅增加計算成本。
– 採用獨立的 Top-K 知識蒸餾目標,避免教師模型僅提供部分 logits 時的標準 KL 蒸餾不穩定問題。
– 三階段後訓練流程:微調(SFT)、長度正規化偏好對齊及模型融合,提升指令遵循和工具使用的可靠度。
對企業 AI 開發者而言,LFM2 不再是「小型 LLM」的簡化版,而是能依循結構化格式、遵守 JSON 架構並處理多輪對話的實用代理。許多同規模開源模型失敗,並非推理能力不足,而是指令模板適應性差,LFM2 的後訓練策略正是針對這些弱點。
換句話說,Liquid AI 著重小型模型的「運營穩定性」,而非僅追求測試分數。
符合設備限制的多模態設計
LFM2-VL(視覺語言)及 LFM2-Audio(音頻)變體強調「令牌效率」:
– LFM2-VL 不直接將龐大視覺轉換器嵌入 LLM,而是透過 SigLIP2 編碼器及 PixelUnshuffle 連接器大幅減少視覺令牌數量,高解析度輸入自動動態切片,於手機硬件上控制令牌預算。
– LFM2-Audio 則設有雙路徑音頻處理,一路輸出嵌入向量,一路負責生成,支持在中低階 CPU 上實時轉錄或語音轉語音。
這種設計意味著未來企業能:
– 在現場設備直接完成文件理解;
– 本地執行音頻轉錄和語音代理,保障隱私合規;
– 在固定延遲範圍內運行多模態代理,無需將資料串流至雲端。
重點依然是:無需 GPU 叢集即可實現多模態能力。
專為代理系統設計的檢索模型
LFM2-ColBERT 擴展了後期互動檢索技術,體積足夠小巧,適合企業需要多語言檢索增強生成(RAG)而無需昂貴向量資料庫加速器的部署。
隨著企業開始管理大量代理,快速本地檢索——與推理模型共用硬件——不僅降低延遲,也提升治理合規性:文件數據永遠不離開設備邊界。
LFM2 的視覺語言、音頻和 ColBERT 變體展示出其作為模組化系統的特質,而非單一模型。
企業混合 AI 架構的藍圖初現
LFM2 報告隱約描繪出未來企業 AI 堆疊的藍圖:本地與雲端混合協同運作。小型快速模型負責設備端的即時感知、格式化、工具調用與判斷,雲端則在需要時提供強大推理能力。
趨勢包括:
– 成本控管:本地推理避免不可預測的雲端費用。
– 延遲穩定:即時啟動和解碼穩定性對代理流程至關重要,本地執行消除網絡延遲波動。
– 治理合規:本地執行簡化個人資料處理、數據駐留和審計。
– 韌性:若雲端不可用,代理系統仍能優雅降級運作。
採用此架構的企業將視小型本地模型為代理工作流的「控制平面」,大型雲端模型則扮演按需加速器角色。
LFM2 是目前為止最清晰的開源控制層基礎。
策略啟示:本地端 AI 已成設計選項,不再是妥協
多年來,企業普遍認為「真正的 AI」必須依賴雲端推理。LFM2 挑戰了這種觀念,該模型在推理、指令遵循、多語言任務及檢索增強生成方面表現競爭力,同時在延遲上大幅優於其他開源小型模型。
對於正制定 2026 年技術路線圖的 CIO 和 CTO,訊息明確:小型、開源、本地端模型已足夠承擔生產工作負載的重要部分。
LFM2 雖不會取代雲端最前沿的超大規模模型,但提供了企業更迫切需要的東西——一套可複製、開放且實務可行的基礎,用於構建能夠在手機、工業終端乃至隔離安全設施中運行的代理系統。
在日益多元的企業 AI 生態中,LFM2 不僅是研究里程碑,更是架構融合的象徵。未來不再是雲端或邊緣的二選一,而是兩者協同作業。LFM2 這類發布為準備有意識構建混合未來的組織,提供了關鍵基石。
—
評論與啟示
Liquid AI 的 LFM2 展示了企業 AI 發展的關鍵轉折:從以往依賴龐大雲端資源的「理想」模型,逐步走向兼具實用性與效率的「現實」模型。這種以硬件限制和真實運營需求為出發點的設計思維,極具啟發性。它提醒我們,AI 模型的成功不僅在於理論上的能力,也在於能否在多變且受限的真實環境中穩定運行。
對香港及全球企業來說,LFM2 代表著一條可行的本地 AI 部署路徑,尤其在數據隱私法規日益嚴格的背景下,本地處理成為必須。這也降低了對昂貴雲端資源的依賴,為中小企業甚至個人開發者提供了更多可能性。
此外,LFM2 的模組化多模態策略,讓手機和其他邊緣設備能有效處理視覺、語音和文本,意味著未來智能應用將更貼近用戶需求和場景。這對香港這種移動設備使用率極高、對數據安全高度敏感的市場尤為重要。
最後,LFM2 提倡的混合雲端-本地架構,強調了技術與商業的協同,為企業打造既靈活又高效的 AI 生態系統提供了藍本。這種平衡策略值得本地企業及政策制定者深思與借鑒,推動 AI 技術健康、可持續發展。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。
🎬 YouTube Premium 家庭 Plan成員一位 只需 HK$148/年!
不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放
