讓人工智能用簡單語言解釋其預測
隨著機器學習模型的錯誤及其使用的難度增加,科學家們開發了解釋方法,幫助用戶理解何時以及如何信任模型的預測。然而,這些解釋往往過於複雜,可能包含數百個模型特徵的信息,有時也以多維可視化的形式呈現,對於缺乏機器學習專業知識的用戶來說,理解上存在困難。
為了幫助人們理解人工智能的解釋,麻省理工學院的研究人員利用大型語言模型(LLMs)將基於圖表的解釋轉換為普通語言。他們開發了一個雙部件系統,將機器學習解釋轉換為一段易於理解的文本,並自動評估敘述的質量,讓最終用戶知道是否應該信任這個解釋。
研究人員希望通過這項技術,未來用戶能夠在現實環境中向模型提問,了解模型是如何得出預測的。項目負責人、電機工程及計算機科學(EECS)研究生Alexandra Zytek表示:“我們的研究目標是邁出第一步,讓用戶能夠與機器學習模型進行全面對話,以便更好地決定是否聽取模型的意見。”
澄清解釋
研究人員專注於一種流行的機器學習解釋方法,稱為SHAP。在SHAP解釋中,模型用於進行預測的每個特徵都有一個值。例如,若模型預測房價,其中一個特徵可能是房屋的位置。位置會被賦予一個正值或負值,表示該特徵對模型整體預測的影響程度。SHAP解釋通常以條形圖呈現,顯示哪些特徵最重要或最不重要,但對於擁有100多個特徵的模型來說,這樣的條形圖很快就變得不易處理。
Zytek指出:“作為研究人員,我們需要對呈現的內容作出很多選擇。如果我們只選擇顯示前十個,人們可能會質疑其他未出現在圖中的特徵。使用自然語言可以減輕我們做這些選擇的負擔。”
然而,研究人員並不是使用大型語言模型來生成自然語言的解釋,而是利用LLM將現有的SHAP解釋轉換為可讀的敘述。這樣做可以限制引入不準確性的機會。
他們的系統名為EXPLINGO,分為兩個協同工作的部分。第一部分稱為NARRATOR,使用LLM創建符合用戶偏好的SHAP解釋的敘述描述。通過最初提供三到五個書面範例,LLM將模仿該風格生成文本。Zytek表示:“與其讓用戶試圖定義他們想要的解釋類型,讓他們寫出想要看到的內容更為簡單。”
這使得NARRATOR能夠通過顯示不同的手動寫作範例來輕鬆定制新用例。在NARRATOR創建了一個普通語言的解釋後,第二部分GRADER則使用LLM根據四個指標對敘述進行評分:簡潔性、準確性、完整性和流暢性。GRADER自動將NARRATOR的文本和SHAP解釋輸入到LLM中。
Zytek補充道:“我們發現,即使LLM在執行任務時出錯,它在檢查或驗證該任務時通常不會出錯。”用戶還可以自定義GRADER,為每個指標賦予不同的權重。
分析敘述
對於Zytek和她的同事來說,最大的挑戰之一是調整LLM,使其生成自然的敘述。添加的風格指導越多,LLM引入錯誤的可能性越大。她表示:“大量的提示調整都用於逐一查找和修正錯誤。”
為了測試他們的系統,研究人員選取了九個帶有解釋的機器學習數據集,並讓不同用戶為每個數據集編寫敘述。這使他們能夠評估NARRATOR模仿獨特風格的能力。他們利用GRADER對每個敘述解釋進行四個指標的打分。
最終,研究人員發現他們的系統能夠生成高質量的敘述解釋,並有效模仿不同的寫作風格。他們的結果顯示,提供幾個手動撰寫的範例能顯著改善敘述風格,但這些範例必須仔細撰寫——例如,使用“更大”等比較詞可能會導致GRADER將準確的解釋標記為不正確。
基於這些結果,研究人員希望探索能幫助系統更好處理比較詞的技術。他們還希望通過為解釋添加合理性來擴展EXPLINGO。最終,他們希望利用這項工作作為邁向互動系統的基石,讓用戶能夠就解釋向模型提問。
Zytek指出:“這將在很多方面幫助決策。如果人們不同意模型的預測,我們希望他們能迅速弄清楚他們的直覺是否正確,或者模型的直覺是否正確,以及這種差異的來源。”
這項研究展現了人工智能在解釋其預測方面的潛力,不僅能提高用戶的理解,還能促進他們在決策過程中的參與感,這是未來人工智能發展的重要方向。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。