人工智能科學家已經到來
斯坦福大學的研究人員介紹了一種多代理人工智能架構,模仿跨學科的科學家團隊。
科學研究的概念正在改變。人工智能(AI)不再是被動工具,而是成為科學過程中的主動合作者。一項調查顯示,大型語言模型(LLMs)正迅速成為博士生研究中不可或缺的工具。
風險投資家維諾德·科斯拉在最近的一次訪談中表示:「在接下來的幾年裡,我們將達到一個擁有人工智能科學家的境地。屆時,你可以實現更快的科學進步。」
這一願景已經開始成形。在一項新研究中,斯坦福大學的研究人員提出了「虛擬實驗室」的概念,這是一個設計用於跨學科科學研究的人工智能與人類合作的框架——在這個案例中,專注於設計和驗證SARS-CoV-2的新型納米抗體。
該系統由一組大型語言模型(LLM)代理組成,每個代理專注於不同的領域,以協助人類研究人員解決科學問題。
這一架構是用Python構建的,以GPT-4o作為其默認的LLM,但支持輕鬆更換其他模型——這與ChemCrow和Coscientist等依賴固定或預定義LLM代理的研究框架不同。
在這樣的結構中,代理不僅僅是進行計算。它們參與討論、提出解決方案,並對結果進行批判性評估,使其成為科學過程中不僅僅是工具的角色。
虛擬實驗室內部
這項研究中描述的多代理人工智能架構旨在模仿一個跨學科的科學家團隊。工作流程從為人工智能代理定義角色開始,如首席研究員(PI)、科學家代理和科學評論員。研究通過結構化的「團隊會議」進行廣泛討論,並通過「個別會議」進行具體任務。
人工智能代理共同討論、批評和完善想法,使用AlphaFold、Rosetta和機器學習模型設計SARS-CoV-2變異株的納米抗體。人類研究人員設定議程並整合結果,借助人工智能簡化複雜的跨學科研究。
一個「科學評論員」代理確保嚴格評估,增強輸出穩健性,而「首席研究員」代理則綜合輸入,模擬領導並克服跨領域知識協調的挑戰。
斯坦福大學的研究員兼這項研究的共同作者凱爾·斯萬森告訴AIM,這些虛擬實驗室中的LLM代理是產生研究想法、實驗流程和研究項目代碼的極其有幫助的資源。但目前仍然需要人類研究人員仔細檢查LLM代理所做決策的有效性。
儘管LLM代理在生成研究想法、工作流程和代碼方面非常有價值,但研究人員必須驗證其準確性,因為它們可能會出現幻覺和錯誤。
斯萬森解釋說,儘管使用多個代理和科學評論員可以幫助發現錯誤,但這種方法並非萬無一失,因為所有代理可能會犯同樣的錯誤。他還指出,提供額外的上下文,如相關研究論文,可以幫助減少幻覺,但不會完全消除它們。
跨學科科學發現的未來
谷歌DeepMind最近的論文也強調了人工智能在科學中日益增長的角色。人工智能通過大型語言模型加速知識共享,幫助生成和標記數據(例如預測蛋白質功能),並提升研究效率。
像AlphaProof和AlphaGeometry 2這樣的工具正在解決藥物設計和算法優化中的難題。2024年5月,DeepMind推出了AlphaFold 3,這是一個開源的、改變遊戲規則的蛋白質摺疊模型,預測準確性提高了50%。谷歌DeepMind的兩位科學家德米斯·哈薩比斯和約翰·M·詹普於2024年因AlphaFold2獲得諾貝爾化學獎。
這項斯坦福研究提到了詹普的AlphaFold 2論文,作為跨學科研究的例子。它強調了現代科學研究涉及大型、多樣化團隊,顯示了複雜科學研究的合作性質。
超越虛擬實驗室
有趣的是,虛擬實驗室架構可以擴展到藥物發現和材料科學的其他領域,具備更廣泛的代理專業知識。它旨在輕鬆適應各種科學應用,其核心要素是領域無關的。
斯萬森表示:「我們希望虛擬實驗室能隨著底層LLM的改進而不斷提升。我們還希望整合更多工具,以增強其能力。」他提到的改進建議包括支持網絡搜索或訪問GitHub存儲庫,這將有助於其獲取新知識並利用超出其訓練的工具。
這類實驗使得入門知識的獲得變得更加民主化。虛擬實驗室在四輪中設計了92個納米抗體候選者,並進行了實驗驗證。這種效率展示了資源有限的環境如何通過人工智能合作取得有影響力的成果。
在當前的科學研究中,人工智能的角色無疑正在迅速演變。這不僅是技術的進步,更是對科學方法論的重新思考。隨著這些新型架構的發展,未來的科學研究有望變得更加高效和協作,這無疑將為解決當今世界面臨的重大挑戰提供新的思路和方式。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。