這款應用程式讓在 MacOS 設備上使用 Ollama 本地 AI 變得如此簡單
如果你希望透過專用應用程式使用本地的 Ollama AI,那麼在 MacOS 上有一個選擇比競爭對手更出色。
撰文:Jack Wallen,撰稿人
日期:2025年2月10日,太平洋時間凌晨3:15
我選擇使用本地安裝的 AI 進行研究,因為我不想讓第三方使用我的資訊來建立個人檔案或訓練他們的本地語言模型(LLMs)。
我最喜愛的本地 AI 是開源的 Ollama。我最近寫過一篇文章,介紹如何利用瀏覽器擴展來簡化使用這個本地 LLM 的過程,而我在 Linux 平台上使用這個擴展。但在 MacOS 上,我則使用一款名為 Msty 的免費應用程式,使用起來非常簡單。
Msty 的功能
Msty 允許用戶使用本地安裝和在線的 AI 模型。不過,我通常會選擇本地安裝的選項。與其他 Ollama 的選擇不同,這個應用不需要部署容器、不需要使用終端,亦不需要再打開另一個瀏覽器標籤。
Msty 提供了許多功能,例如分拆聊天(可以同時執行多個查詢)、重新生成模型回應、克隆聊天、添加多個模型、實時數據調用(僅適用於某些模型)、創建知識堆疊(可以添加文件、資料夾、Obsidian 保險庫、筆記等用於訓練你的本地模型)、提示庫等等。
Msty 是與 Ollama 互動的最佳工具之一。以下是使用它的方法。
安裝 Msty
你需要準備的:你只需一部 MacOS 設備,以及已安裝並運行的 Ollama。如果你還沒有安裝 Ollama,請先安裝(這裡有指導)。你還需要下載一個本地模型(在上面的文章中有說明)。
1. 下載安裝程式
前往 Msty 網站,點擊下載 Msty 下拉選單,選擇 Mac,然後選擇 Apple Silicon 或 Intel。
2. 安裝 Msty
安裝完成後,雙擊檔案,當被提示時,將 Msty 圖示拖到應用程式文件夾中。
使用 Msty
1. 打開 Msty
接下來,打開 Launchpad,找到 Msty 的啟動器。點擊啟動器以打開應用程式。
2. 連接你的本地 Ollama 模型
首次運行 Msty 時,點擊設置本地 AI,它會下載必要的組件。下載完成後,它會自動配置並下載一個本地模型,除了 Ollama 以外。
要將 Msty 連接到 Ollama,點擊側邊欄的本地 AI 模型,然後點擊與 Llama 3.2 相關的下載按鈕。下載完成後,你可以從模型下拉選單中選擇它。你還可以添加其他模型,但需要從該特定模型的帳戶獲取 API 密鑰。此時,Msty 應該已經連接到本地的 Ollama LLM。
在這個時候,你可以輸入你的第一個查詢並等待回應。
3. 模型指令
Msty 的一個酷炫功能是允許你更改模型指令。
例如,你可能希望將本地 LLM 用作 AI 輔助的醫生、寫作助手、會計師、外星人人類學家或藝術顧問。
要更改模型指令,請點擊應用程式中間的編輯模型指令,然後點擊掃把圖標左邊的小聊天按鈕。
從彈出的選單中,你可以選擇要應用的指令。在運行第一個查詢之前,請點擊「應用於此聊天」。
Msty 還有許多其他功能,但這個指南將幫助你快速上手。我建議你先從基本功能開始,隨著對應用的熟悉,再嘗試更複雜的操作。
編輯評論
Msty 的出現為 MacOS 用戶提供了一個強大的本地 AI 解決方案,特別是在隱私日益受到關注的當下。許多人對於將個人資料交給大型科技公司感到不安,而使用本地 AI 模型能更好地保護用戶的數據安全。同時,Msty 提供的多功能性和易用性,使它成為一個值得推薦的選擇。
然而,儘管 Msty 具備多項先進功能,用戶仍然需要謹慎選擇使用的模型,並了解其潛在的限制。未來,隨著 AI 技術的進一步發展,這類應用程式可能會帶來更多創新功能,但用戶的數據隱私始終應是首要考量。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。
🎬 YouTube Premium 家庭 Plan成員一位 只需 HK$148/年!
不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放