
獨家報導:AI在實驗室超越病毒專家,提升生物危害的擔憂
一項新的研究顯示,像ChatGPT和Claude這樣的人工智能模型在濕實驗室中的問題解決能力,已經超越了博士級別的病毒學家。專家指出,這一發現是一把雙刃劍。超智能的AI模型可能幫助研究人員防止傳染病的擴散,但非專業人士也可能利用這些模型製造致命的生物武器。
這項研究由AI安全中心、麻省理工學院媒體實驗室、巴西UFABC大學和疫情防範非營利組織SecureBio的研究人員進行。作者們諮詢了病毒學家,設計了一個極具挑戰性的實用測試,來評估複雜實驗程序和協議的故障排除能力。結果顯示,博士級病毒學家在其專業領域的平均得分為22.1%,而OpenAI的o3模型達到了43.8%的準確率,谷歌的Gemini 2.5 Pro則得到了37.6%。
SecureBio的研究科學家及論文合著者Seth Donoughe表示,這一結果讓他感到“有點緊張”,因為歷史上第一次,幾乎任何人都可以接觸到不帶評判的AI病毒學專家,這可能會引導他們進行複雜的實驗過程,製造生物武器。
“歷史上,有相當多的案例顯示有人試圖製作生物武器,而他們未能成功的一個主要原因是缺乏正確的專業知識,”他說。“因此,對於這些能力的分發,我們需要保持謹慎。”
幾個月前,論文的作者將結果發送給主要的AI實驗室。作為回應,xAI發布了一個風險管理框架,承諾在其未來版本的AI模型Grok中實施病毒學安全措施。OpenAI告訴《TIME》,他們“為新模型部署了針對生物風險的新系統級緩解措施”。Anthropic在最近的系統卡中包含了論文的模型性能結果,但並未提出具體的緩解措施。谷歌的Gemini則拒絕對《TIME》發表評論。
AI在生物醫學中的應用
病毒學和生物醫學長期以來一直是AI領導者構建日益強大AI模型的動力之一。“隨著這項技術的進步,我們將看到疾病以空前的速度被治愈,”OpenAI的首席執行官Sam Altman在一月份的白宮會議上宣布Stargate項目時表示。今年早些時候,佛羅里達大學的新興病原體研究所的研究人員發表了一種算法,能夠預測哪種冠狀病毒變種可能最快擴散。
不過,迄今為止,尚未有一項主要研究專門分析AI模型實際進行病毒學實驗工作的能力。“我們已經知道AI在提供學術風格的信息方面相當強大,”Donoughe說。“但不清楚這些模型是否能提供詳細的實用幫助,包括解釋圖像、未在任何學術論文中寫下的信息或由更有經驗的同事社會性傳遞的材料。”
因此,Donoughe和他的同事設計了一個專門針對這些難以在Google上查詢的問題的測試。“問題的形式是:‘我在這種細胞類型中培養這種特定的病毒,在這些具體條件下,持續了這段時間。我對出現的問題有這些信息。你能告訴我最可能的問題是什麼嗎?’”Donoughe說。
幾乎每個AI模型在測試中都超越了博士級病毒學家,甚至是在他們自己的專業領域。研究人員還發現,這些模型隨著時間的推移顯示出顯著的改進。例如,Anthropic的Claude 3.5 Sonnet從2024年6月的26.9%準確率提升至2024年10月的33.6%。OpenAI的GPT 4.5在2月份的預覽中,超越了GPT-4o近10個百分點。
“之前我們發現這些模型有很多理論知識,但缺乏實用知識,”AI安全中心主任Dan Hendrycks告訴《TIME》。 “但現在,他們獲得了令人擔憂的實用知識。”
風險與獎勵
如果這些AI模型在濕實驗室環境中的能力如研究所示,那麼其影響是巨大的。在好處方面,AI可以幫助經驗豐富的病毒學家在抗擊病毒的關鍵工作中。約翰霍普金斯健康安全中心主任Tom Inglesby表示,AI可以加速藥物和疫苗開發的時間表,改善臨床試驗和疾病檢測。“這些模型可以幫助世界各地的科學家,尤其是那些尚未具備這種技能或能力的科學家,進行有價值的日常疾病研究,”他說。例如,一組研究人員發現AI幫助他們更好地理解撒哈拉以南非洲的出血熱病毒。
但惡意行為者現在可以利用AI模型來指導他們如何創造病毒,並且能夠在沒有通常進入生物安全四級(BSL-4)實驗室所需的培訓的情況下做到這一點。“這意味著世界上更多的人在缺乏培訓的情況下能夠管理和操縱病毒,”Inglesby說。
Hendrycks呼籲AI公司設立防範措施,以防止這類使用。“如果公司在六個月內沒有為這些設置良好的防範措施,那在我看來將是魯莽的,”他說。
Hendrycks表示,一個解決方案不是關閉這些模型或減緩它們的進步,而是將它們設置為門檻,讓只有可信的第三方能夠訪問未經過濾的版本。“我們希望給那些有合法用途的人,比如麻省理工學院生物系的研究人員,提供操縱致命病毒的能力,”他說。“但剛剛註冊的隨機人員則無法獲得這些能力。”
Hendrycks表示,AI實驗室應該能夠相對容易地實施這些類型的安全措施。“對於行業自我監管來說,這在技術上是可行的,”他說。“問題在於是否有些公司會拖延或根本不採取行動。”
Elon Musk的AI實驗室xAI在二月份發布了一份風險管理框架備忘錄,承認了這篇論文並表示該公司將“可能利用”某些關於病毒學問題的安全措施,包括訓練Grok拒絕有害請求和應用輸入和輸出過濾器。
OpenAI在週一發送給《TIME》的電子郵件中寫道,其最新模型o3和o4-mini已經部署了一系列與生物風險相關的安全措施,包括阻止有害輸出。該公司表示,進行了一千小時的紅隊測試,成功標記和阻止了98.7%的不安全生物相關對話。“我們重視行業在推進前沿模型的安全措施方面的合作,包括在病毒學等敏感領域,”一位發言人表示。“隨著能力的增長,我們繼續投資於這些安全措施。”
Inglesby認為,行業自我監管是不夠的,呼籲立法者和政治領導者制定政策以監管AI的生物風險。“目前的情況是,最有道德的公司正在花費時間和金錢進行這項工作,這對我們所有人都有好處,但其他公司卻不必這樣做,”他說。“這樣是不合理的,對公眾來說,沒有任何洞察力是有害的。”
“In當一個新的LLM版本即將發布時,”Inglesby補充道,“應該要求對該模型進行評估,以確保它不會產生疫情級別的結果。”
—
這篇文章揭示了AI在病毒學研究中的潛力與風險,尤其是當前科技的迅速進步可能帶來的倫理和安全挑戰。隨著AI模型在實驗室環境中表現出越來越強的能力,我們必須深思其應用的界限,以及如何有效地監管這些技術,以防止潛在的濫用。科技的發展固然令人振奮,但同時也需要謹慎對待,確保人類的安全與健康不受威脅。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。