OpenAI高層離職者稱無公司準備好迎接AGI
OpenAI的「AGI準備」小組亦將解散。
作者:Kylie Robison
Miles Brundage,OpenAI專責AGI(即人類水平人工智能)準備的高級顧問,在週三宣布離職時發出了嚴峻警告:包括OpenAI在內,沒有人為人工通用智能做好準備。
Brundage表示:「無論是OpenAI還是其他前沿實驗室,都未能為AGI做好準備,世界也同樣如此。」他在公司任職六年,協助塑造AI安全計劃。「值得注意的是,這在OpenAI的領導層中並非具爭議性的說法,這與公司和世界是否能在適當時間準備就緒是不同的問題。」
他的離職標誌著OpenAI安全團隊一系列高層離職的最新動向。著名研究員Jan Leike在聲稱「安全文化和流程已讓位於光鮮的產品」後離開。聯合創辦人Ilya Sutskever亦離職,創立自己的AI初創公司,專注於安全的AGI開發。
Brundage的「AGI準備」小組的解散,僅數月前公司解散專注於長期AI風險緩解的「超對齊」小組,突顯了OpenAI原始使命與其商業野心之間日益增長的緊張關係。據報導,公司面臨壓力,需在兩年內從非營利轉為營利的公共利益公司,否則需退還最近66億美元投資輪的資金。這種向商業化轉變長期以來一直令Brundage擔憂,他在2019年OpenAI首次建立其營利部門時便表達了保留意見。
Brundage在解釋其離職時,提及在這家高知名度公司中其研究和出版自由日益受到限制。他強調需要在AI政策討論中保持獨立的聲音,遠離行業偏見和利益衝突。在建議OpenAI領導層內部準備後,他相信現在可以在組織外對全球AI治理產生更大影響。
這次離職也可能反映OpenAI內部更深層的文化分歧。許多研究員加入是為了推進AI研究,卻發現自己身處愈發以產品為導向的環境中。內部資源分配成為矛盾焦點——報導指出,Leike的團隊在最終解散前曾被拒絕提供安全研究所需的計算資源。
儘管存在這些摩擦,Brundage指出OpenAI已表示願意支持其未來工作,提供資金、API點數和早期模型訪問,且不附加任何條件。
編者評論:
這篇報導揭示了OpenAI內部的複雜動態及其面臨的挑戰,尤其是在商業化壓力與原始使命之間的拉鋸。AGI的發展不僅是一項科技挑戰,更是一個關乎倫理和全球治理的重大課題。Brundage的離職突顯出在這個快速變化的領域中,保持研究的獨立性和多元聲音的重要性。OpenAI作為一個原本以研究為核心的機構,如今面臨如何平衡商業化與其原始使命的困境,這不僅是OpenAI的挑戰,也是整個AI行業的縮影。隨著技術的進步,全球對AGI的準備和治理需要更深入的討論和行動。這也提醒我們,科技的發展不僅需要創新,還需要深思熟慮的規範和倫理指導。
以上文章由特價GPT API KEY所翻譯