
研究人員教大型語言模型解決複雜的規劃挑戰
這個新框架利用模型的推理能力,創造出一個「智能助手」,能夠找到多步驟問題的最佳解決方案。
想像一下,一家咖啡公司試圖優化其供應鏈。這家公司從三個供應商那裡採購咖啡豆,在兩個設施中烘焙成深焙或淺焙咖啡,然後將烘焙好的咖啡運送到三個零售地點。這些供應商的固定產能不同,烘焙和運輸成本也因地而異。
該公司希望在滿足需求增加23%的同時,將成本降至最低。
那麼,這家公司是否可以直接請ChatGPT來制定最佳計劃呢?事實上,儘管大型語言模型(LLMs)具備驚人的能力,但在被要求直接解決如此複雜的規劃問題時,往往表現不佳。
麻省理工學院的研究人員採取了不同的做法,而不是嘗試改變模型以使LLM成為更好的規劃者。他們引入了一個框架,指導LLM像人類一樣將問題分解,然後使用強大的軟件工具自動解決。
用戶只需用自然語言描述問題,無需提供特定任務的示例來訓練或提示LLM。模型將用戶的文字提示編碼成一種格式,這種格式可以被設計用來高效破解極其複雜的規劃挑戰的優化求解器解讀。
在形成過程中,LLM在多個中間步驟檢查其工作,以確保計劃正確地描述給求解器。如果發現錯誤,LLM不會放棄,而是會嘗試修正錯誤的部分。
當研究人員在九個複雜挑戰(例如,最小化倉庫機器人完成任務所需的距離)上測試他們的框架時,成功率達到了85%,而最佳基準僅達到39%的成功率。
這個多功能框架可以應用於各種多步驟的規劃任務,例如安排航空公司機組人員或管理工廠中的機器運行時間。
優化基礎知識
Fan小組開發的算法自動解決被稱為組合優化問題的問題。這些龐大的問題具有許多相互關聯的決策變量,每個變量都有多種選擇,迅速累積到數十億種潛在選擇。
人類通過將問題縮小到幾個選項來解決這些問題,然後確定哪一個選項能導致最佳的整體計劃。研究人員的算法求解器應用相同的原則來解決過於複雜而無法由人類解決的優化問題。
但他們開發的求解器通常需要陡峭的學習曲線,通常僅由專家使用。
「我們認為LLMs可以讓非專家使用這些求解算法。在我們的實驗室裡,我們將領域專家的問題正式化為我們的求解器可以解決的問題。我們能教LLM做到這一點嗎?」Fan說。
使用研究人員開發的框架,稱為基於LLM的形式化編程(LLMFP),用戶提供問題的自然語言描述、任務的背景信息以及描述其目標的查詢。
然後,LLMFP提示LLM對問題進行推理,確定將塑造最佳解決方案的決策變量和關鍵約束條件。
LLMFP要求LLM詳細說明每個變量的要求,然後將信息編碼為優化問題的數學公式。它編寫代碼編碼問題並調用附加的優化求解器,從而得出理想解決方案。
「這類似於我們在麻省理工學院教授本科生有關優化問題的方式。我們不僅教他們一個領域,而是教他們方法論。」Fan補充說。
只要求解器的輸入正確,它就會給出正確的答案。任何解決方案中的錯誤都來自於公式化過程中的錯誤。
為了確保找到可行計劃,LLMFP分析解決方案並修改公式化過程中任何不正確的步驟。一旦計劃通過自我評估,解決方案就會以自然語言描述給用戶。
完善計劃
這個自我評估模塊還允許LLM添加首次未能識別的隱含約束,Hao說。
例如,如果該框架正在優化供應鏈以最小化咖啡店的成本,一個人知道咖啡店不能運送負數的烘焙豆,但LLM可能意識不到這一點。
自我評估步驟將標記該錯誤並提示模型修正。
「此外,LLM可以適應用戶的偏好。如果模型意識到某個用戶不喜歡改變他們的旅行時間或預算,它可以建議更改符合用戶需求的內容。」Fan說。
在一系列測試中,他們的框架在九個不同的規劃問題上使用多個LLM,平均成功率在83%到87%之間。儘管某些基準模型在特定問題上表現更好,但LLMFP的整體成功率約是基準技術的兩倍。
與這些其他方法不同,LLMFP不需要特定領域的示例進行訓練。它可以立即找到規劃問題的最佳解決方案。
此外,用戶可以通過調整提供給LLM的提示來為不同的優化求解器調整LLMFP。
「利用LLM,我們有機會創建一個界面,讓人們使用來自其他領域的工具,以以前未曾想到的方式解決問題。」Fan說。
在未來,研究人員希望使LLMFP能夠接受圖像作為輸入,以補充規劃問題的描述。這將幫助框架解決特別難以用自然語言完全描述的任務。
這項工作部分由海軍研究辦公室和麻省理工學院-IBM沃森人工智能實驗室資助。
這項研究不僅展示了LLM在解決複雜規劃問題中的潛力,還突顯了人工智能如何能夠成為人類的強大助手。隨著技術的進步,我們可以期待這些智能助手在各行各業中的應用,從供應鏈管理到航班調度,甚至是個人生活的日常規劃。這不僅是對現有技術的延伸,也是對未來智能系統可能性的一次深入探索。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。