人工智能能在兩小時內準確複製個人性格
根據最新研究,與人工智能(AI)模型進行兩小時對話,就能準確複製某人的個性。這項研究由谷歌和斯坦福大學的研究人員於2025年1月4日發表,並於11月15日將其研究成果上傳至預印本數據庫arXiv。研究人員基於對1,052名參與者進行的兩小時訪談,創建了所謂的“模擬代理”——即AI複製品,並訓練一個旨在模仿人類行為的生成式AI模型。
為了評估AI複製品的準確性,每位參與者完成了兩輪的人格測試、社會調查和邏輯遊戲,並在兩週後重複此過程。當AI複製品參加同樣的測試時,與其人類對應者的反應匹配度達到85%。
研究報告指出,模擬人類行為的AI模型在各種研究場景中都可能具有實用價值,例如評估公共衛生政策的有效性、了解產品發布的反應,甚至模擬對重大社會事件的反應,這些情況下用人類參與者研究可能會過於昂貴、挑戰性大或在倫理上複雜。
研究人員在報告中寫道:“通用的模擬人類態度和行為的能力——每個模擬者可以在社會、政治或信息背景下互動——將為研究人員提供一個實驗室,以測試廣泛的干預措施和理論。”模擬還可以幫助試點新的公共干預措施,發展因果和情境交互的理論,並增強我們對制度和網絡如何影響人們的理解。
為了創建這些模擬代理,研究人員進行了深入訪談,涵蓋參與者的生活故事、價值觀及對社會問題的看法。這使得AI能夠捕捉到典型調查或人口數據可能忽略的細微差別。最重要的是,這些訪談的結構使研究人員能夠自由地強調他們個人認為最重要的內容。
科學家們利用這些訪談生成個性化的AI模型,能夠預測個體如何回應調查問題、社會實驗和行為遊戲。其中包括對一般社會調查的反應,這是一個衡量社會態度和行為的成熟工具;五大人格特質量表;以及經濟遊戲,如獨裁者遊戲和信任遊戲。
儘管AI代理在許多領域與人類對應者密切相似,但其準確性在不同任務中有所不同。它們在複製人格調查的反應和確定社會態度方面表現良好,但在涉及經濟決策的互動遊戲中預測行為的準確性較低。研究人員解釋說,AI通常在涉及社會動態和情境細微差別的任務中表現不佳。
他們也承認這項技術可能被濫用。AI和“深偽”技術已經被惡意行為者用來欺騙、冒充、濫用和操控他人。研究人員指出,模擬代理也可能被誤用。
然而,他們表示,這項技術可以讓我們以前無法實現的方式研究人類行為的各個方面,因為它提供了一個高度控制的測試環境,而不會面臨與人類合作時的倫理、後勤或人際挑戰。
斯坦福大學計算機科學博士生、研究主導作者朴俊成在接受《麻省理工科技評論》時表示:“如果你可以擁有一群小的‘你’在運行,實際上做出你會做出的決策——我認為這就是未來的方向。”
在這項研究中,我們可以看到AI技術的潛力和挑戰並存。雖然這些AI複製品能夠在某些方面準確模仿人類,但它們在複雜的社交互動中仍然存在局限。這提醒我們,在推進科技的同時,我們必須謹慎考慮其道德影響和潛在濫用的風險。這項研究不僅為未來的科技應用提供了新的視野,同時也促使我們思考如何在倫理框架下合理利用這些技術。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。