Paras Chopra:解碼演化,一盤菜餚一次
一個關於Paras Chopra的奇特個案
「Inverted Passion」部落格的倡議者Paras Chopra似乎找到了新的目標——一個超越AGI、博弈論、演化和意識等等的目標。他最新的重點是如何利用機器幫助我們將這個夢想變成當今的現實,儘管能否實現仍有疑問,或許是留待日後再討論的話題。
在班加羅爾市中心,身穿印有「Attention is All You Need」字樣的T恤的Wingify創辦人Paras Chopra,揭示了他新發現的迷戀:圖靈的夢想(Turing’s Dream)。他的計劃構想了一個讓人類知識分子和智慧碰撞的地方。在他研究室的研究艙裡,三層的書架見證了他的投入。
AIM團隊親自拜訪了他們的辦公室,並在那裡見到了Raghuvamsi Velagala,該計劃的參與者之一。我們看到他正在玩一個3D打印的機械臂,他正使用強化學習(RL)來教它操控!在他周圍,其他團隊成員則專注於不同的活動,例如記錄大型語言模型(LLM)的未來、熱衷於編碼或啜飲高咖啡因的魔爪飲料。
這可不是我們過去見過的People+ai或其他AI加速器或孵化器。圖靈的夢想網站明確提到,如果他們「正在為現有的API構建包裝器,或正在尋找像共同創辦人這樣的切實成果」,就不應該申請。「這不是一個創業加速器或共同創辦人匹配計劃。」
Chopra表示,圖靈的夢想是一個為期六週的駐留計劃,程式設計師和研究人員可以構建他們的AI項目,並成為「一個獨家社群的永久成員,該社群由所有過去和現在的hack house居民組成——一種AGI之家,沒有宏偉和華麗的內飾。」
Chopra說:「對於那些因為AI本身而熱愛AI的人來說,社群還不夠多。」
Chopra還提供由E2E網絡提供的免費雲GPU(每位居民2500美元),以及與AI研究人員、他的同儕和投資者建立網絡的機會。正如Chopra所揭示的,人們確實正在構建創新的項目。
例如,四年級工程系學生Arun Balaji正在與UPI團隊合作,利用圖神經網絡檢測洗錢活動。同時,17歲的高中生Surya Maddula準備建造一個開闊空間的降噪裝置,可以在現實世界中消除噪音,他還擁有一項專利!
今年早些時候,AIM採訪了Adithya S Kolavi,他是CognitiveLab的一名工程系學生和AI研究員,他正在構建Omniparse。這個庫將非結構化數據轉換為LLM的結構化數據。他也是圖靈夢想第二批成員之一,並將他的成功歸功於開源模型。
在幾年內以超過50億盧比的經常性利潤啟動了一家公司之後,Chopra的下一筆投資顯然圍繞著好奇心和執著——這些是金錢買不到的東西。
美味佳餚,美味發現
圖靈的夢想和Chopra的個人研究齊頭並進,支持志同道合的人解決他在研究中發現的問題。
他對此非常渴望,以至於他想找出這些大型語言模型背後發生的事情——這解釋了他為什麼將他的一些熱情項目命名為「藍莓」和「豆腐」,而現在他又烹飪「麵條」。
也許這是對OpenAI的o1(內部稱為草莓項目)的一種挖苦——藍莓很甜,但草莓很酸。
Chopra呼應許多AI領袖的觀點,他認為概率構成了大型語言模型的核心,它無法進行真正的推理。
此外,他說,通過更多數據和性能能力來改進大型語言模型的蠻力方法並不能解決問題。他認為,連接外部工具和「符號代理」可能有助於大型語言模型更真實地進行推理。
亞利桑那州立大學教授Subbarao Kambhampati在一個YouTube播客節目中表達了類似的觀點。「當它們[大型語言模型]進行自我反思時,它們實際上會變得更糟。但是,如果你有一個外部驗證器……它實際上足以提高性能。」他說。
雖然基準測試和擴展定律表明大型語言模型已經遇到了瓶頸,但Chopra遠遠沒有滿足。他認為,大型語言模型遠未達到人類水平的創造力,其輸出也不夠多樣化。「大型語言模型最終會模仿你用來訓練它們的數據,因此,除非你在微調過程中提供大量新數據,否則你不會對大型語言模型產生太大影響。」
雖然合成數據是一種解決方案,但Chopra認為應該謹慎使用。「自然數據比大型語言模型生成的合成數據具有更高的多樣性,因此請謹慎使用合成數據,因為它可能會導致性能下降。」
「如果數據集驅動大型語言模型的智能,為什麼我們不能讓大型語言模型本身發出數據請求,針對它們不擅長的事情?」他最近在X上的一篇文章中這樣問道。
許多研究人員和專家認為,大型語言模型無法進行推理。人類執行的大多數任務並不一定涉及新穎的創造性思維或有效的推理。此外,低估一種純粹基於概率的訓練數據推導出的推理方法也是不公平的。
新加坡南洋理工大學教授Boyang ‘Albert’ Li說:「記憶推理是嘗試學習評分不同推理路徑的副作用,就像記憶答案/近似檢索是基於答案進行訓練的副作用一樣。」他補充說,解決推理問題將會讓我們走得很遠。
謹慎的創造力
Chopra的項目豆腐(Tofu)探索了一種利用大型語言模型釋放創造力的新範式。
他的發現表明,大型語言模型的輸出往往缺乏多樣性,並且難以在重複和胡言亂語的響應之間取得平衡。當他將輸出的示例添加到提示中時,大型語言模型確實達到了一定的創造力。
「如果你認為大型語言模型是有創造力的,那可能是你自己的創造力在起作用。」他說。「當你巧妙地提示它、更改提示、給予它反饋或將其推向某個概念空間時,你會引導大型語言模型變得有創造力。」
也就是說,畢竟期望一個高度有創造力的大型語言模型可能不是最好的主意。這也是行業正在走向的趨勢。它可能有潛力與用戶建立更深厚的聯繫,但在某些情況下,這可能不是正確的做法。
Hugging Face(一個開源託管平台)的首席倫理學家Giada Pistilli在接受AIM採訪時分享道:「正如我一直指出的那樣,向廣大受眾分發『魔盒』或複雜、不透明的系統充滿風險。人類行為的不可預測性,加上AI的巨大潛力,使得幾乎不可能預見每種可能的濫用情況。」她的聲明是在CharacterAI發生悲慘事故的背景下做出的,OpenAI此前也曾就此發出警告。
OpenAI在其今年早些時候發布的系統卡中表示:「與AI模型進行類似人類的社交可能會產生影響人際互動的外部性。例如,用戶可能會與AI建立社交關係,減少他們對人際互動的需求,這可能會讓孤獨的個人受益,但也可能會影響健康的關係。」
當然,Chopra強調了倫理和安全的重要性。他認為,AI系統會做它被優化去做的事情。例如,Character AI被優化用於建立人際關係,而OpenAI被優化用於以事實正確的答案進行響應。
在強調工程師需要考慮安全和倫理的同時,Chopra說,有時想法似乎如此令人興奮,以至於它將如何影響他人的問題並不是最明顯出現的問題,但考慮到這一點卻非常重要。
**(編輯評論)**
這篇文章報導了Paras Chopra及其創立的AI研究社群「圖靈的夢想」。文章內容不僅描述了這個社群的運作模式和參與者的項目,更深入探討了Chopra對大型語言模型的看法,以及他對AI未來發展方向的獨特見解。
Chopra的觀點值得深思。他質疑單純依靠增加數據和算力來提升LLM效能的做法,認為這並非解決LLM推理能力不足的根本方法。他強調連結外部工具和符號代理的重要性,以及謹慎使用合成數據的必要性。這與一些學界專家的觀點不謀而合,也反映了目前AI領域對LLM局限性的普遍認識。
然而,文章也點出了Chopra觀點中值得商榷的地方。例如,他認為LLM缺乏創造力,其創造性實際上來自於用戶的提示和引導。這似乎過於簡化了LLM的創造潛力,忽略了LLM在特定任務上展現出的自主性和創造性。 LLM的「創造力」是否純粹來自用戶的引導,抑或LLM本身具備一定的創造性潛力,仍有待進一步研究。
此外,文章提到了Character AI的負面案例,突顯了AI倫理和安全的重要性。Chopra強調AI系統會做它被優化去做的事情,這提醒我們在開發和應用AI技術時,必須充分考慮其潛在的社會影響,並建立完善的倫理框架和安全機制。 這不僅僅是技術問題,更是涉及社會責任和人類福祉的重大議題。
總體而言,這篇文章呈現了一個引人入勝的故事,不僅介紹了一個獨特的AI研究社群,更引發了我們對AI技術發展方向、倫理和安全等一系列重要問題的思考。 Chopra的「圖靈的夢想」或許只是AI發展長河中的一朵浪花,但它反映了AI領域持續探索和創新的活力,以及對AI未來發展方向的持續探索。 未來,我們需要更多像Chopra這樣富有遠見和社會責任感的AI研究者,引領AI技術朝著更有益於人類的方向發展。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。