六合彩AI預測賽後檢討!邊個模型預測最叻? 每次攪珠當晚10:30更新免費睇!

擁有AI:從租用到掌控未來

用戶擁有的人工智能的必要性

你是否曾經想過,誰真正控制著你的人工智能助手?這是一個大多數人尚未思考過的問題。如今,數百萬人依賴數字助手,從語音控制設備到嵌入在 Google Workspace 或 ChatGPT 等工具中的智能機器人。這些系統幫助我們寫作、組織、搜尋,甚至思考。然而,絕大多數這些助手都是租來的。我們並不擁有我們所依賴的智能,這意味著其他人掌控著它。

如果你的數字助手明天消失了,你能做什麼?如果背後的公司改變條款、限制功能,或以你意想不到的方式貨幣化你的數據,該怎麼辦?這些都不是理論上的擔憂,而是已經在發生,並指向我們應該積極塑造的未來。

隨著這些助手嵌入到我們的財務、工作流程和家庭中,擁有權的利害關係變得更加重要。對於一些低風險的任務,比如幫助你寫電子郵件的語言模型,租用可能還可以接受。然而,當你的人工智能為你行動、用你的錢做決策,或管理你生活中的重要部分時,擁有權就變得至關重要。

當前人工智能商業模式對用戶的影響

我們所熟知的人工智能是建立在租賃經濟之上的。你支付訪問費用、每月訂閱費或按使用量計費的 API,作為回報,你獲得了“控制”的“幻覺”。然而,在幕後,平台提供商掌握著所有權力。他們決定提供什麼人工智能模型,你的人工智能能做什麼,如何響應,以及你是否能繼續使用它。

舉個常見的例子:一個商業團隊使用人工智能助手來自動化任務或生成見解。這個助手可能存在於一個集中式的 SaaS 工具中,可能是由一個封閉模型驅動,並托管在其他人的伺服器上,運行在他們的 GPU 上。甚至可能是基於你公司的數據進行訓練的——一旦上傳,你就不再完全擁有這些數據。

現在,想像一下,提供商開始優先考慮貨幣化,就像 Google 搜索通過廣告驅動的結果一樣。正如搜索結果受到付費位置和商業利益的強烈影響,大型語言模型(LLMs)也可能會如此。你所依賴的助手發生變化,響應偏向於有利於提供商的商業模式,而你卻無能為力。你從未真正擁有控制權。

這不僅僅是一個商業風險,對個人來說也是一個風險。在意大利,ChatGPT 在 2023 年因隱私問題被暫時禁止,這讓數千人一夜之間失去訪問權。在一個人們越來越多地圍繞人工智能構建個人工作流程的世界中,這種脆弱性是不可接受的。

在隱私問題上,當你租用人工智能時,你經常會上傳敏感數據,有時甚至是無意中。這些數據可能會被記錄、用於再訓練,甚至被貨幣化。集中式人工智能本質上是不透明的,隨著地緣政治緊張局勢上升和法規迅速變化,完全依賴他人的基礎設施是一個日益增長的負擔。

真正擁有你的助手意味著什麼

與被動的人工智能模型不同,智能代理是可以獨立行動的動態系統。擁有權意味著控制代理的核心邏輯、決策參數和數據處理。想像一個可以自主管理資源、跟踪開支、設置預算和代表你做出財務決策的代理。

這自然引導我們探索像 Web3 和新銀行系統這樣的先進基礎設施,這些系統提供了可編程的方式來管理數字資產。擁有的代理可以在明確的用戶定義邊界內獨立運行,將人工智能從一個反應工具轉變為一個主動的、個性化的系統,真正為你服務。

擁有真正的控制權,你可以確切知道自己使用的是什麼模型,並在需要時更改底層模型。你可以升級或自定義你的代理,而不必等待提供商。你可以暫停它、複製它或將其轉移到另一個設備上。最重要的是,你可以使用它,而不必擔心數據洩露或依賴單一的集中式守門人。

在 Olas,我們一直在朝著這個未來邁進,開發 Pearl,一個作為桌面應用的人工智能代理應用商店,允許用戶以一鍵運行自主人工智能代理,同時保留完全的擁有權。今天,Pearl 包含了一些主要針對 Web3 用戶的用例,以簡化加密互動的複雜性,並越來越多地關注 Web2 的用例。Pearl 中的代理持有自己的錢包,使用開源人工智能模型,並代表用戶獨立行動。

啟動 Pearl,就像進入一個代理的應用商店。你可以選擇一個來管理你的 DeFi 投資組合。你可以運行另一個來處理研究或內容生成。這些代理不需要不斷的提示;它們是自主的,屬於你的。從支付租用的代理轉變為從擁有的代理中獲利。

我們設計 Pearl 是為了迎合已經理解擁有密鑰重要性的加密用戶。然而,將自我保管的概念擴展到不僅僅是資金,還包括人工智能,遠遠超出了 DeFi 的範疇。想像一個控制你家庭自動化的代理,補充你的社交互動,或協調工作中的多個工具。如果這些代理是租來的,你就無法完全控制它們。如果你無法完全控制它們,你就越來越多地將生活的核心部分外包。

這一運動不僅僅是關於工具;它關乎主權。如果我們未能向開放的、用戶擁有的人工智能轉變,我們將面臨重新集中權力於少數主導者手中的風險。但如果我們成功,我們將解鎖一種新的自由,讓智能不再是租來的,而是真正屬於你,每個人都能擁有一支“軍隊”來協助自己。

這不僅僅是理想主義。這是良好的安全性。開源人工智能是可審計和同行評審的,而封閉模型則是黑箱。如果有一天一個人形機器人住在你家裡,你希望運行它的代碼是專有的,受外國雲服務提供商控制的?還是你希望能夠確切知道它在做什麼?

我們有選擇:我們可以繼續租用、信任,並希望一切不會出錯,或者我們可以擁有我們的工具、數據、決策和未來。

用戶擁有的人工智能不僅僅是更好的選擇。它是唯一尊重使用者智慧的選擇。

這篇文章引發了對於人工智能未來發展的重要思考。隨著科技的進步,我們不僅要考慮如何使用這些工具,更要思考如何掌控這些工具。用戶擁有的人工智能不僅能提高我們的生活質量,更能確保我們的數據安全和隱私。未來的科技應當是以用戶為中心,讓每個人都能在數字世界中擁有自己的主權。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

Chat Icon