OpenAI首席科學家指控:利潤重於安全!

Ai

諾貝爾獎得主指控前OpenAI首席科學家因安全問題解僱Sam Altman,並預測超級智能即將來臨:「我們可能只剩下4年」

新聞
由Kevin Okemwa於昨日發布

OpenAI CEO Sam Altman是否因優先考慮利益而被解職?

根據一位諾貝爾獎得主的說法,他的前學生Ilya Sutskever,即前OpenAI首席科學家,因為Sam Altman專注於創造利潤而不是開發安全的AI,而解僱了他。這家ChatGPT的製造商因為優先開發光鮮亮麗的產品,而將測試和安全放在次要位置而受到關注。

據報導,OpenAI在推出其GPT-4o模型的過程中急於求成,甚至在測試開始之前就發出了發布會的邀請函。過去幾個月來,OpenAI因各種原因成為焦點,包括破產報告,預計在未來12個月內虧損50億美元,高層人員的大量離職,包括首席技術官Mira Murati和首席科學家Ilya Sutskever。此外,公司可能會轉變為盈利實體,以避免敵意收購和外部干預,並將最近一輪籌集的66億美元資金返還給投資者。

在您錯過的新聞中,科學家John J. Hopfield和Geoffrey E. Hinton最近因其發現而獲得了諾貝爾物理學獎,這些發現促進了人工神經網絡的發展。這項技術被Google和OpenAI等主要科技公司廣泛應用於運行其搜索引擎和聊天機器人。

更有趣的是,前OpenAI首席科學家Ilya Sutskever曾是Geoffrey E. Hinton的學生。Hinton稱讚Sutskever是一位「聰明」的學生(他甚至承認這位科學家比他更「聰明」),並使事情得以運作。

這位科學家還承認了Sutskever在擔任OpenAI首席科學家期間的貢獻。Hilton還藉此機會批評了ChatGPT製造商在Sam Altman領導下的發展路徑。他進一步聲稱Altman對AI安全的關注遠不如對利潤的關注。

OpenAI CEO Sam Altman一度被董事會解除了職務,但在引發員工和投資者的爭議後幾天內又被恢復職位。據悉,當時Sutskever在董事會中佔有一席之地,並支持解僱Altman。然而,在Altman復職後,這位首席科學家從未回到工作崗位,這可能表明兩者之間存在緊張的工作環境。

這位物理學家還談到了AI的快速發展及其可能終結人類的可能性。Hilton預測我們即將達到超級智能的門檻,這可能導致人類滅絕。他提示,這可能「只剩下幾千天」,但需要「7萬億美元和多年時間來建設36家半導體工廠和額外的數據中心」。

OpenAI的安全性是否仍然是首要任務?

在OpenAI高層人員大批離職期間,前對齊負責人Jan Leike表示,他在下一代AI模型的核心優先事項、安全性、監控、準備、安全性、對抗性穩健性、(超級)對齊、機密性、社會影響等方面與官員們發生了多次分歧。這一經歷促使這位官員表示,公司似乎更專注於開發光鮮亮麗的產品,而將安全性置於次要位置。

一份獨立報告可能證實了Leike的觀點,因為據報導,OpenAI的安全團隊受到壓力,急於通過GPT-4o模型的測試階段。令人震驚的是,這家ChatGPT製造商據報導甚至在測試開始前就發出了GPT-4o發布會的邀請函。一位OpenAI發言人堅稱,發布會對其安全團隊來說是壓力山大,但保證公司在推出產品時沒有偷工減料。

前OpenAI首席科學家Ilya Sutskever早些時候離開公司,專注於一個「個人意義重大的」項目。他後來創立了Safe Superintelligence Inc.(SSI),該公司專注於構建安全的超級智能——這是新AI時代的一個關鍵問題。

儘管Sutskever的離職表面上看似平靜,但內部高層官員表達了對公司崩潰的擔憂。他們據報導曾試圖讓這位首席科學家重返工作崗位,但在公司重組期間難以找到合適的職位。

編者評論

這篇文章揭示了AI領域內部的複雜動態,尤其是在OpenAI這樣的領先公司中。從Sam Altman的領導風格到Ilya Sutskever的離職,這些事件都反映了在技術創新和安全考量之間的微妙平衡。AI的快速發展帶來了無數機遇,但也伴隨著巨大的風險。作為媒體,我們應該持續關注這些動態,並提醒讀者在享受科技便利的同時,不要忽視其潛在的危險。未來的AI發展應該更加注重倫理和安全,這樣才能真正造福人類,而不是成為威脅。

以上文章由特價GPT API KEY所翻譯

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *