六合彩AI預測賽後檢討!邊個模型預測最叻? 每次攪珠當晚10:30更新免費睇!

AI幫手設計新藥?MIT新技術,秒速搞掂分子合成!

Ai

大型語言模型能否幫助設計我們下一代的藥物和材料?

一種新方法讓用戶可以用簡單的語言請求具有特定特性的分子,並獲得詳細的合成說明。

Adam Zewe | MIT新聞
發佈日期:2025年4月9日

發現具有創造新藥物和材料所需性質的分子過程繁瑣且昂貴,消耗大量計算資源並需要數月的人力來縮小潛在候選者的龐大範圍。

像ChatGPT這樣的大型語言模型(LLMs)可以簡化這一過程,但使LLM理解並推理構成分子的原子和鍵的方式,與其對構成句子的單詞的理解相同,這一直是科學上的一大挑戰。

來自麻省理工學院(MIT)及MIT-IBM沃森人工智能實驗室的研究人員創造了一種有前景的方法,將LLM與其他機器學習模型結合,這些模型被稱為基於圖的模型,專門用於生成和預測分子結構。

他們的方法利用一個基礎LLM來解釋自然語言查詢,指定所需的分子特性。該系統自動在基礎LLM和基於圖的AI模塊之間切換,以設計分子、解釋理由,並生成逐步的合成計劃。它交錯文本、圖形和合成步驟生成,將單詞、圖形和反應結合成LLM可以理解的共同語言。

與現有的基於LLM的方法相比,這種多模態技術生成的分子更符合用戶的規範,並且更有可能具有有效的合成計劃,使成功率從5%提高到35%。

它還超越了規模大於其10倍的LLM,這些LLM僅使用基於文本的表示法來設計分子和合成路徑,這表明多模態是新系統成功的關鍵。

“這可能是從頭到尾的解決方案,能夠自動化整個設計和製作分子的過程。如果LLM能在幾秒鐘內給出答案,對製藥公司來說將是巨大的時間節省,”MIT研究生Michael Sun說,他是這項技術論文的共同作者。

Sun的合著者包括主要作者、聖母大學研究生Gang Liu;MIT電機工程和計算機科學教授Wojciech Matusik,他領導著計算設計與製造小組;聖母大學副教授Meng Jiang;以及MIT-IBM沃森人工智能實驗室的高級研究科學家及經理Jie Chen。這項研究將在國際學習表徵會議上發表。

兼具兩者優勢

大型語言模型並不具備理解化學細微差別的能力,這是它們在逆向分子設計中面臨挑戰的一個原因,該過程旨在識別具有特定功能或性質的分子結構。

LLMs將文本轉換為稱為標記的表示,並用它們來逐步預測句子中的下一個單詞。但分子是“圖結構”,由原子和鍵組成,沒有特定的順序,這使得它們難以作為順序文本編碼。

另一方面,強大的基於圖的AI模型將原子和分子鍵表示為圖中的互聯節點和邊。雖然這些模型在逆向分子設計中十分流行,但它們需要複雜的輸入,無法理解自然語言,且其結果可能難以解釋。

MIT的研究人員將LLM與基於圖的AI模型結合到一個統一框架中,從而獲得兩者的最佳優勢。

“Llamole”代表“用於分子發現的大型語言模型”,使用基礎LLM作為閘道器來理解用戶的查詢——即用簡單語言請求具有特定特性的分子。

例如,假設用戶尋求一種能穿透血腦屏障並抑制HIV的分子,且其分子量為209,具有某些鍵特徵。

隨著LLM對查詢的文本進行預測,它會在圖模塊之間切換。

一個模塊使用圖擴散模型生成根據輸入要求的分子結構。第二個模塊使用圖神經網絡將生成的分子結構編碼回LLM可以使用的標記。最後一個圖模塊是一個圖反應預測器,它以中間分子結構為輸入,預測反應步驟,尋找從基本構建塊合成該分子的確切步驟。

研究人員創建了一種新型觸發標記,告訴LLM何時激活每個模塊。當LLM預測出“設計”觸發標記時,它會切換到繪製分子結構的模塊;而當預測到“逆合成”觸發標記時,則會切換到預測下一步反應的逆合成計劃模塊。

“這一點的美妙之處在於,LLM在激活特定模塊之前生成的所有內容都會被輸入到該模塊中。該模塊學會以與之前內容一致的方式運作,”Sun說。

以同樣方式,每個模塊的輸出會被編碼並反饋到LLM的生成過程中,這樣LLM就能理解每個模塊的作用,並根據這些數據繼續預測標記。

更好、更簡單的分子結構

最終,Llamole輸出分子結構的圖像、分子的文本描述以及提供合成詳細步驟的逐步合成計劃,直到每個化學反應。

在涉及設計符合用戶規範的分子的實驗中,Llamole超越了10個標準LLM、四個微調LLM和一種最先進的專業方法。同時,它將逆合成規劃的成功率從5%提高到35%,生成的分子質量更高,這意味著它們具有更簡單的結構和更低成本的構建塊。

“單靠LLMs很難弄清楚如何合成分子,因為這需要多步計劃。我們的方法能生成更好的分子結構,且這些結構更容易合成,”Liu說。

為了訓練和評估Llamole,研究人員從零開始建立了兩個數據集,因為現有的分子結構數據集並未包含足夠的細節。他們用AI生成的自然語言描述和定制描述模板增強了數十萬個專利分子。

他們建立的數據集用於微調LLM,包含與10個分子特性相關的模板,因此Llamole的一個局限性是它僅訓練設計考慮這10個數值特性的分子。

在未來的工作中,研究人員希望使Llamole更加通用,以便能夠納入任何分子特性。此外,他們計劃改善圖模塊,以提高Llamole的逆合成成功率。

長期來看,他們希望利用這一方法超越分子,創建能處理其他類型圖形數據的多模態LLM,例如電網中的互聯傳感器或金融市場中的交易。

“Llamole展示了利用大型語言模型作為處理複雜數據(超越文本描述)的接口的可行性,我們預計它們將成為與其他AI算法交互的基礎,以解決任何圖形問題,”Chen說。

這項研究部分由MIT-IBM沃森人工智能實驗室、國家科學基金會和海軍研究辦公室資助。

在這篇文章中,我們看到大型語言模型(LLMs)在分子設計中的應用潛力。這不僅僅是技術上的突破,還可能對藥物開發和材料科學產生深遠的影響。隨著LLMs的進一步發展,我們或許能看到更高效的藥物設計流程,這將徹底改變製藥行業的運作模式。這一研究展示了跨學科合作的重要性,尤其是在化學和計算科學的交匯處,未來的研究應該更加關注如何將這些模型擴展到其他科學領域,以促進更多創新。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

Chat Icon