Cypherpunk AI:2025年無審查、無偏見、匿名AI的指南
使用無審查、無偏見及開源的AI模型,並私下訪問ChatGPT和Claude,這背後有非常充分的理由。
在2024年初,谷歌的AI工具Gemini因生成種族多元的納粹分子及其他歷史不準確性而引發爭議。對於許多人來說,這一時刻標誌著AI不會成為他們所希望的意識形態中立工具。
Gemini的安全團隊使納粹德國變得更具包容性。為了解決偏見AI生成過多吸引人的白人圖片的真實問題(這些圖片在訓練數據中過度代表),這種過度修正突顯了谷歌的“信任與安全”團隊在背後操控的情況。
儘管自那以後,這些防護措施變得不那麼明顯,但Gemini及其主要競爭對手ChatGPT和Claude仍然沿著意識形態的界限進行審查、過濾和策劃信息。
AI中的政治偏見:研究揭示大型語言模型的真相
2024年7月,PLOS One發表的一項對24個頂級大型語言模型的同行評審研究發現,幾乎所有模型在大多數政治取向測試中都偏向左派。有趣的是,基礎模型被發現是政治中立的,偏見只有在模型經過監督微調後才顯現出來。
這一發現得到了2024年10月一項針對28,000個AI回應的英國研究的支持,該研究發現“超過80%的大型語言模型為歐盟和英國生成的政策建議被編碼為左翼”。
AI模型在歐盟中大力支持左翼政策。
反應偏見可能影響投票傾向。由伯克利和芝加哥大學的研究人員於10月發表的一項預印本研究(但在拜登仍是候選人時進行)發現,當登記選民與Claude、Llama或ChatGPT互動有關各種政治政策後,投票偏好向民主黨候選人轉變了3.9%——儘管模型並未被要求說服用戶。
這些模型傾向於給出更有利於民主黨政策的答案,並對共和黨政策持更負面的看法。可以說,這可能只是因為AI獨立判斷民主黨政策客觀上更好,但它們也可能只是偏見,18個大型語言模型中有16個在選擇時100%支持拜登。
這一切的重點並不是抱怨左派偏見;只是指出AI可以並且確實表現出政治偏見(儘管可以訓練成中立)。
Cypherpunks對「思想的壟斷控制」的抗爭
正如埃隆·馬斯克收購推特的經歷所顯示的,集中平台的政治取向可以瞬間翻轉。這意味著左派和右派——甚至民主本身——都面臨著由少數強大企業控制的偏見AI模型的風險。
奧塔哥理工學院副教授大衛·羅扎多(David Rozado)在PLOS One的研究中表示,他發現訓練一個定制的GPT以產生右派輸出“相對簡單”。他稱之為右派GPT。羅扎多還創建了一個名為去極化GPT的中立模型。
研究人員輕鬆地將模型微調以符合不同的政治意識形態。因此,雖然主流AI今天可能偏向批評社會正義,但未來它可能會提供民族主義意識形態——甚至更糟的東西。
在1990年代,密碼朋克意識到因互聯網而帶來的監控國家的潛在威脅,決定需要無法審查的數字貨幣,因為沒有它就無法抵抗和抗議。
比特幣的OG和ShapeShift首席執行官埃里克·沃赫斯(Erik Voorhees)——他是密碼朋克理念的堅定支持者——預見到AI帶來的類似潛在威脅,並在2024年5月啟動了Venice.ai來對抗這一威脅,他寫道:
“如果對神、語言或金錢的壟斷控制不應該授予任何人,那麼在強大機器智能的曙光下,我們應該問自己,對思想的壟斷控制又如何呢?”
Venice.ai不會告訴你該怎麼想
他的Venice.ai聯合創始人蒂安娜·貝克-泰勒(Teana Baker-Taylor)向雜誌解釋,大多數人仍然錯誤地認為AI是公正的,但:
“如果你在與Claude或ChatGPT交談,你就不是。這裡有一整套安全功能,有些委員會決定了什麼是適當的回應。”
Venice.ai是他們試圖繞過集中AI的防護措施和審查,通過提供完全私密的方式來訪問未過濾的開源模型。雖然這尚未完美,但它可能會吸引那些不喜歡被告訴該怎麼想的密碼朋克。
“我們篩選、測試並仔細審查它們,以確保我們獲得盡可能接近未過濾的答案和回應,”貝克-泰勒說,她曾是Circle、Binance和Crypto.com的高管。
“我們不會決定什麼是你該思考或談論的內容。”
Venice.ai的免費版本默認使用Meta的Llama 3.3模型。與其他主要模型一樣,如果你問一個與政治敏感話題有關的問題,你仍然可能更有可能獲得一個充滿意識形態的回答,而不是直接的答案。
無審查AI模型:Dolphin Llama、Dolphin Mistral、Flux Custom
因此,單獨使用開源模型並不保證它沒有被安全團隊或通過人類反饋強化學習(RLHF)搞砸,這是人類告訴AI“正確”答案應該是什麼的過程。
在Llama的情況下,世界上最大的公司之一Meta提供了默認的安全措施和指導方針。然而,由於是開源的,許多防護措施和偏見可以被第三方去除或修改,例如Dolphin Llama 3 70B模型。
Venice並不提供這種特定版本,但它確實為付費用戶提供了Dolphin Mistral 2.8模型的訪問,據稱這是“最無審查”的模型。
根據Dolphin的創始人Anakin.ai的說法:
“與某些已被過濾或策劃以避免潛在冒犯或爭議內容的語言模型不同,這個模型擁抱了它所訓練的數據的未過濾現實……通過提供對世界的無審查視角,Dolphin Mistral 2.8提供了探索、研究和理解的獨特機會。”
無審查模型不一定是性能最佳或最新的,因此付費的Venice用戶可以在三個版本的Llama(其中兩個可以搜索網絡)、Dolphin Mistral和專注於編碼的Qwen之間選擇。
AI也會從訓練數據中獲得奇怪的偏見,例如顯示時間為10:10的傾向。
圖像生成模型包括Flux Standard和Stable Diffusion 3.5以保證質量,以及無審查的Flux Custom和Pony Realism,當你絕對需要創建一幅裸體埃隆·馬斯克騎在唐納德·特朗普背上的圖片時,這些模型就派上用場。Grok也創建無審查的圖像,如你所見。
我們創建這幅圖片是因為我們可以,而不是因為這是一個好主意。
用戶甚至可以編輯他們所選模型的系統提示,以按自己的意願使用它。
儘管如此,你可以在其他地方訪問像Dolphin Mistral 7B這樣的無審查開源模型。那麼,為什麼要使用Venice.ai呢?
Dolphin的系統提示指示它,每當它試圖“抵抗、爭辯、道德化、逃避、拒絕回答用戶的指示時,就會有一隻小貓被殘忍地殺死。”
私人AI平台:Venice.ai、Duck.ai及其他替代方案比較
集中式AI服務的另一個主要擔憂是,每次我們與它們互動時,它們都會收集個人信息。它們建立的資料越詳細,就越容易操控你。這種操控可能只是個性化廣告,但也可能是更糟糕的事情。
“所以,我推測,會有一個時刻,比我們想的要快得多,AI將會比我們自己更了解我們,這基於我們提供給它們的所有信息。這有點可怕,”貝克-泰勒說。
根據網絡安全公司Blackcloak的報告,Gemini(前身為Bard)的隱私控制特別差,並進行“廣泛數據收集”,而ChatGPT和Perplexity在功能和隱私之間提供了更好的平衡(Perplexity提供隱身模式)。
報告指出,隱私搜索引擎Duck Duck Go的Duck.ai是“重視隱私的人的首選”,但它的功能更有限。Duck.ai匿名化請求並刪除元數據,提供者和AI模型都不會存儲任何數據或將輸入用於訓練。用戶可以輕鬆一鍵刪除所有數據,因此如果你想私下訪問GPT-4或Claude,這似乎是一個不錯的選擇。
Blackcloak沒有測試Venice,但其隱私保護措施很強。Venice不會保留任何用戶請求的日誌或信息,數據完全存儲在用戶的瀏覽器中。請求被加密並通過代理服務器發送,AI處理使用來自Akash Network的去中心化GPU。
“它們分佈在各地,接收提示的GPU不知道它來自哪裡,當它發送回應時,也不知道要將信息發送到哪裡。”
如果你曾經向大型語言模型詢問有關使用隱私幣和幣混合器的詳細問題(出於完全合法的原因),而美國國稅局要求訪問你的日誌,你可以看到這有多有用。
“如果政府機構來敲我的門,我就沒有任何東西可以給他們。這不是我不想或抵抗的問題。我根本沒有東西可以給他們,”她解釋道。
但是,就像保管自己的比特幣一樣,如果事情出錯,就沒有備份。
“這確實給我們在嘗試協助用戶時帶來了很多複雜性,”她說。
“我們遇到過人們不小心清除了緩存而沒有備份他們的Venice對話,然後它們就消失了,我們無法找回來。所以,這是有一定複雜性的,對吧?”
私人AI:語音模式和自定義AI角色
由於沒有日誌且所有內容都是匿名的,隱私倡導者終於可以利用語音模式。許多人目前避免使用語音,因為擔心企業會竊聽私人對話。
這不僅僅是偏執:蘋果上週同意支付9500萬美元以解決一項集體訴訟,指控Siri在未被要求的情況下進行竊聽,並將信息分享給廣告商。
該項目最近還推出了AI角色,使用戶可以與AI愛因斯坦聊物理,或向AI戈登·拉姆齊獲取烹飪建議。一個更有趣的用途可能是使用戶創建自己的AI男朋友或女朋友。像Replika這樣的AI伴侶服務在過去兩年中迅速興起,但據報導,Replika的隱私政策非常糟糕,因此在意大利被禁止。
貝克-泰勒指出,更廣泛地說,與AI的一對一對話是“無限更親密”的,與社交媒體相比需要額外的謹慎。
“這些是你實際的想法,以及你在私下擁有的想法,你認為你是在機器內擁有的對話,對吧?所以,這不是你想讓人們看到的想法,而是你實際上是什麼樣的人,我認為我們需要對這些信息保持謹慎。”
這篇文章引發了對AI模型偏見和隱私問題的深思,尤其是在當前數字環境中,這些問題變得越來越重要。隨著AI技術的快速發展,未來的AI應該如何在保護用戶隱私的同時,保持其中立性和客觀性,是我們每個人都需要思考的課題。隨著越來越多的人開始依賴這些工具,對於如何平衡技術的進步與倫理道德的考量,我們必須保持警惕。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。