液態AI推LFM模型,效能超越傳統大模型

Ai

**Liquid AI推出全新LFM模型,表現優於大多數傳統大型語言模型**

作者:Mike Wheatley

人工智能初創公司及麻省理工學院衍生公司Liquid AI Inc. 今日推出了其首套生成式AI模型,這些模型與競爭對手不同,因為它們基於一種全新的架構。

這些新模型被稱為「Liquid Foundation Models」(LFM),據稱其性能與目前一些最佳的大型語言模型相當,甚至更優。

這家位於波士頓的初創公司由麻省理工學院的一組研究人員創立,包括Ramin Hasani、Mathias Lechner、Alexander Amini和Daniela Rus。他們被認為是「液態神經網絡」概念的先驅,這是一類與我們如今熟知和喜愛的基於生成預訓練變壓器(GPT)的模型(如OpenAI的GPT系列和Google LLC的Gemini模型)完全不同的AI模型。

該公司的使命是創建高效且功能強大的通用模型,供各種規模的組織使用。為此,它正在構建基於LFM的AI系統,這些系統可以在從網絡邊緣到企業級部署的各種規模中工作。

**什麼是LFM?**
根據Liquid的說法,其LFM代表了新一代的AI系統,這些系統在設計上兼具性能和效率。該公司解釋說,它們使用最少的系統內存,同時提供卓越的計算能力。

它們基於動態系統、數值線性代數和信號處理。這使它們非常適合處理各種類型的序列數據,包括文本、音頻、圖像、視頻和信號。

Liquid AI首次引起關注是在去年12月,當時它籌集了3760萬美元的種子資金。當時,它解釋說其LFM基於MIT計算機科學和人工智能實驗室最初開發的較新型的液態神經網絡(LNN)架構。LNN基於人工神經元的概念,即用於數據轉換的節點。

傳統的深度學習模型需要數千個神經元來執行計算任務,而LNN可以使用顯著更少的神經元來實現同樣的性能。它通過將這些神經元與創新的數學公式結合,實現了以更少的資源做更多的事情。

該初創公司表示,其LFM保留了這些適應性和高效的能力,使其能夠在推理過程中進行實時調整,而不會像傳統LLM那樣帶來巨大的計算開銷。結果,它們可以高效處理多達100萬個tokens,而不會對內存使用造成明顯影響。

Liquid AI首次推出了三個模型系列,包括LFM-1B,一個擁有13億參數的密集模型,設計用於資源受限的環境。稍微強大一點的是LFM-3B,擁有31億參數,旨在邊緣部署,如移動應用、機器人和無人機。最後是LFM-40B,一個擁有403億參數的強大「專家混合」模型,設計用於雲服務器,以處理最複雜的用例。

該初創公司認為其新模型已經在多個重要的AI基準測試中顯示出「最先進的結果」,並且它們有望成為現有生成式AI模型(如ChatGPT)的強大競爭對手。

相較於傳統的LLM在執行長上下文處理時內存使用急劇增加,LFM-3B模型顯著保持較小的內存占用(如上圖所示),使其成為需要處理大量序列數據的應用程序的理想選擇。該公司表示,可能的用例包括聊天機器人和文檔分析。

**基準測試中的強大表現**
在性能方面,LFM表現出了一些令人印象深刻的結果,LFM-1B在同尺寸類別中超越了基於變壓器的模型。同時,LFM-3B與微軟公司的Phi-3.5和Meta Platforms Inc.的Llama系列模型相比表現良好。至於LFM-40B,其效率如此之高,以致於在保持無與倫比的性能和效率平衡的同時,甚至可以超越更大的模型。

Liquid AI表示,LFM-1B模型在MMLU和ARC-C等基準測試中表現尤為出色,為1B參數模型樹立了新標準。

Constellation Research Inc.的Holger Mueller告訴SiliconANGLE,看到AI創新如此迅速令人興奮,Liquid AI的首個模型向我們展示了誰將成為這個行業的最終贏家還遠未確定。

「不僅僅是大玩家有能力爭奪最佳AI模型的桂冠」這位分析師說。「Liquid推出了一些令人印象深刻的模型,從各方面來看,這些模型都比我們以前見過的任何模型都要好。但AI行業將繼續推進,因此它們可能不會很久保持最佳狀態。不管怎樣,看到模型架構的多樣性使競爭環境更加公平是件好事。」

該公司正在通過Liquid Playground、Lambda – via its Chat和應用程序編程接口 – 和Perplexity Labs等平台提供其模型的早期訪問。這將使組織有機會將其模型集成到各種AI系統中,並查看其在邊緣設備和內部部署等各種部署場景中的表現。

該公司正在努力優化LFM模型,以在Nvidia Corp.、Advanced Micro Devices Inc.、Apple Inc.、Qualcomm Inc.和Cerebras Computing Inc.等公司製造的特定硬件上運行,這樣用戶在模型普遍可用時可以從中擠出更多的性能。

該公司表示,將發布一系列技術博客文章,深入探討每個模型的機制,並鼓勵紅隊測試,邀請AI社區測試其LFM的極限,以了解它們能和不能做什麼。

**編輯評論:**
Liquid AI 展示了在AI技術領域中,創新和多樣性如何帶來新的可能性。他們的新架構LFM在效率和性能上都取得了驚人的成就,特別是在資源受限的環境中。這種創新可能會改變我們對AI模型的期待和使用模式。然而,競爭是殘酷的,其他企業也在不斷進步,Liquid AI需要持續創新和優化,才能在這個快速發展的領域中保持領先地位。這也提醒我們,技術的進步不僅取決於資源和規模,更依賴於創新的思維和不斷的探索。

以上文章由特價GPT API KEY所產生

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *