
Apple 剛開放開發者使用其全新本地 AI 模型,表現如何?
在今年 WWDC 的其中一個重點宣布,是首次讓第三方開發者能夠直接利用 Apple 裝置上的 AI 技術,透過全新的 Foundation Models 框架。這意味著,開發者可在本地(裝置內)構建 AI 功能,如自動總結文件、從用戶文字中提取重點資訊,甚至生成結構化內容,而且完全離線,不需使用任何 API,亦無需額外成本。
但問題是,Apple 這些模型的實際表現如何?
實力穩健,重點表現具競爭力
根據 Apple 自家的人工評測結果,這些模型表現相當不俗,尤其在模型大小、運算速度與效率的平衡上做得很好。Apple 最新約 30 億參數的本地模型,在視覺與語言任務上超越了類似輕量級模型如 InternVL-2.5 與 Qwen-2.5-VL-3B,分別在測試中贏得超過 46% 和 50% 的題目。
在文字處理方面,它亦能與更大型模型如 Gemma-3-4B 一較高下,甚至在多種國際英文語境及多語言評測(葡萄牙語、法語、日語等)中略勝一籌。
換句話說,Apple 這批新的本地模型能穩定應付多項現實應用,無需依賴雲端或將數據上傳,保障用戶私隱。
至於 Apple 的伺服器模型(第三方開發者無法使用),則在圖像理解方面優於 LLaMA-4-Scout,甚至勝過 Qwen-2.5-VL-32B,但整體上仍由 GPT-4o 領先。
真正關鍵:免費離線使用
這次的重點不只是 Apple 模型本身的性能,而是它們直接內建於裝置中。透過 Foundation Models 框架,開發者毋須在應用程式內綁定龐大的語言模型來處理離線任務,令應用程式更輕巧,且大部分功能無需依賴雲端。
這帶來的結果是:用戶享有更高私隱保障,開發者亦免除 API 使用費用,雙方皆有利。
Apple 表示,這些模型經過優化,支援以 Swift 原生的「引導式生成」系統,讓開發者能直接將模型回應限制在應用程式邏輯中。對教育、生產力及通訊類應用來說,這可能帶來革命性改變,享用大型語言模型的優勢同時避免延遲、成本及私隱問題。
總結來說,Apple 的本地模型不一定是全球最強,但它們速度快、表現穩定,且免費提供給所有開發者離線使用。或許它們未必能搶盡頭條新聞,但在實際應用上,或將推動 iOS 第三方應用掀起一波真正有用的 AI 功能潮流,無需依賴雲端。對 Apple 而言,這或許正是他們的真正目標。
—
編輯觀點:
Apple 這次在 AI 領域的策略非常值得深思。與其盲目追求最大最強的模型,Apple 選擇在本地離線、隱私與效率間找到一個平衡點,這反映了其長期以來對用戶私隱和生態系統控制的堅持。從用戶體驗出發,這種模式能減少對雲端的依賴,不但提升反應速度,也降低了數據外洩風險,更重要的是減少了開發者成本,促進更多創新應用誕生。
這種策略可能不會像 GPT-4 或其他大型模型那樣在媒體上引起轟動,但卻更貼近普通用戶的日常需求。透過將 AI 功能本地化,Apple 正在打造一個更安全、更高效的智能生態,這亦有助於鞏固其裝置的獨特競爭優勢。
未來,隨著 AI 技術普及,離線 AI 可能成為行業新標準。Apple 的先行布局,為其他科技公司樹立了新的方向:強調用戶私隱和本地智能,而非一味追求雲端算力和規模。這種思維轉變,值得整個業界深刻反思。對香港用戶來說,這意味著未來我們可望在 iPhone 或 iPad 上享受到更快速、更安全、且不依賴網絡的智能功能,提升日常生活與工作效率。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。
🎬 YouTube Premium 家庭 Plan成員一位 只需 HK$148/年!
不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放