斯坦福研究人員開發AI代理,準確預測人類行為
想要擁有自己的反烏托邦克隆人嗎?斯坦福大學可以幫到你。
斯坦福大學的研究團隊開發出能以驚人準確度預測人類行為的AI代理。最近,由朴俊成博士領導的研究顯示,僅需進行兩小時的訪談,AI便能以85% 的標準化準確性複製人類的決策模式。
這些數位克隆不僅僅是深度偽造或稱為LoRAs的“低階適應”。這些準確的個性表現可以用來對用戶進行建模,並測試他們對各種刺激的反應,從政治運動到政策提案,甚至是情緒評估和更逼真的當前AI虛擬形象。
研究團隊招募了1,052名美國人,仔細挑選以代表不同的年齡、性別、種族、地區、教育和政治意識形態的多樣性。每位參與者與AI面試官進行了兩小時的對話,生成的文字記錄平均為6,491字。這些訪談遵循修改過的美國聲音項目協議,探討了參與者的生活故事、價值觀及對當前社會問題的看法。
但與其他研究不同,這項研究在處理訪談數據時採取了不同的方法。研究人員沒有僅僅將原始文字記錄餵入系統,而是開發了一個“專家反思”模塊。這個分析工具從多個專業視角審視每次訪談——心理學家的個性特徵觀察、行為經濟學家的決策模式分析、政治科學家的意識形態分析,以及人口學專家的背景解讀。
一旦完成這種多維度的分析,AI就能更好地理解受試者的個性,獲得比僅僅基於統計數據預測最可能行為更深層的見解。結果是一組由GPT-4o驅動的AI代理,能在不同的控制場景中複製人類行為。
測試結果顯示出驚人的成功。“這些生成代理在一般社會調查中的回應複製準確率達到85%,與參與者在兩週後重複回答的準確度相當,並在預測個性特徵和實驗重複中的結果表現相似,”研究指出。系統在複製五大人格特徵方面的相關性達到0.78,並在經濟決策遊戲中顯示出0.66的標準化相關性。(相關係數為1表示完全正相關。)
值得注意的是,該系統在種族和意識形態群體中的偏見減少,與傳統基於人口統計的研究方法相比,這似乎是許多AI系統面臨的問題,這些系統在平衡刻板印象(假設一個主體會展現出其所屬群體的特徵)和過度包容(避免統計/歷史事實的假設以保持政治正確)之間掙扎。
“我們的架構在準確性上減少了種族和意識形態群體之間的偏見,”研究人員強調,這表明他們的訪談方法在進行人口特徵建模方面可能非常有幫助。
然而,這並不是首次使用AI進行人員建模的嘗試。
在日本,alt Inc.的CLONEdev平台一直在通過生活記錄數據整合進行個性生成實驗。他們的系統結合了先進的語言處理和圖像生成,創造出反映用戶價值觀和偏好的數位克隆。“通過我們的P.A.I技術,我們致力於數位化整個人類,”alt Inc.在官方博客中表示。
有時你甚至不需要量身定制的訪談。以MileiGPT為例,一位來自阿根廷的AI研究者能夠通過數千小時的公開內容微調開源大型語言模型,複製阿根廷總統哈維爾·米萊的溝通模式和決策過程。這些進展使研究人員開始探索思考/感知的“數位雙胞胎”概念,技術分析師和專家如Rob Enderle認為,這些技術可能在未來10年內完全實現。
當然,如果AI機器人不會搶走你的工作,那麼你的AI雙胞胎可能會。“這些的出現需要大量的思考和道德考量,因為一個思考的複製品對雇主來說可能是非常有用的,”Enderle告訴BBC。“如果你的公司創建了一個你的數位雙胞胎,並說,‘嘿,你有這個我們不需要支付工資的數位雙胞胎,那為什麼我們還要雇用你?’”
這一切看起來都令人擔憂。不僅深度偽造會模擬你的外貌,AI克隆還能根據對你行為的簡短建模來模擬你的決策。儘管斯坦福的研究人員已確保採取了保護措施,但顯然人類與數位身份之間的界限正變得越來越模糊,我們已經在這條界限上行走。
在這樣的背景下,我們不禁要思考:科技的迅猛發展是否會讓我們失去真正的自我?在這個數位化的時代,我們需要更加謹慎地面對AI技術的發展,並確保它們在道德和法律上不會對我們的社會結構造成破壞。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。