OpenAI轉戰「超智能」?AI發展路線大轉彎

Ai

OpenAI 開始關注「超智能」的發展

在他的個人博客上,OpenAI 首席執行官山姆·奧特曼表示,他相信 OpenAI「知道如何構建人工通用智能(AGI)」,並開始將目標轉向「超智能」。

奧特曼在周日晚發布的帖子中寫道:「我們熱愛當前的產品,但我們在這裡是為了光輝的未來。超智能工具可以大幅加速科學發現和創新,超越我們目前的能力,從而大幅增加富裕和繁榮。」

奧特曼之前曾表示,超智能可能在「幾千天」內出現,並且其到來將比人們預想的更加激烈。

AGI,即人工通用智能,這是一個模糊的術語。但 OpenAI 有自己的定義:「在大多數經濟上有價值的工作中表現超過人類的高度自主系統。」OpenAI 和其密切合作夥伴及投資者微軟也對 AGI 有自己的定義:能夠產生至少 1000 億美元利潤的 AI 系統。(當 OpenAI 達到這一目標時,根據兩家公司之間的協議,微軟將失去對其技術的訪問權。)

那麼,奧特曼所提及的定義是哪一種呢?他沒有明確說明,但前者似乎更可能。在帖子中,奧特曼表示,他認為 AI 代理——能夠自主執行某些任務的 AI 系統——可能會「加入勞動力」,並「實質性改變公司的產出」。

奧特曼寫道:「我們仍然相信,逐步地將優秀工具放在人民手中,將帶來偉大的、廣泛分佈的成果。」

這是有可能的。但今天的 AI 技術確實存在重大技術限制。它會出現幻覺,犯下人類容易察覺的錯誤,並且成本可能非常高。

奧特曼似乎對這一切能夠迅速克服充滿信心。但如果過去幾年我們從 AI 中學到什麼,那就是時間表會發生變化。

奧特曼寫道:「我們相當有信心,在接下來的幾年裡,每個人都會看到我們所看到的,並且在最大化廣泛利益和賦權的同時,謹慎行動的必要性是如此重要。考慮到我們工作的可能性,OpenAI 不能是一家普通公司。能夠在這項工作中發揮作用是多麼幸運和謙卑。」

人們希望,隨著 OpenAI 逐步轉向它所認為的超智能,該公司能夠投入足夠的資源來確保超智能系統的安全行為。

OpenAI 曾多次提到,成功過渡到超智能的世界「遠非保證」——而且它並不擁有所有答案。「[我們] 沒有解決方案來引導或控制潛在的超智能 AI,並防止其失控,」該公司在 2023 年 7 月的一篇博客文章中寫道。「人類無法可靠地監督比我們更聰明的 AI 系統,因此我們目前的對齊技術無法擴展到超智能。」

自該文章發佈以來,OpenAI 已解散了專注於 AI 安全的團隊,包括超智能系統的安全團隊,並見證了幾位有影響力的安全研究人員的離開。其中一些員工表示,OpenAI 日益增強的商業野心是他們離職的原因;目前,OpenAI 正在進行企業重組,以使其對外部投資者更具吸引力。

在最近的一次訪談中,被問及批評者認為 OpenAI 在安全方面的專注不夠時,奧特曼回應道:「我會指出我們的業績紀錄。」

這篇文章引發了不少思考。奧特曼的信心是否過於樂觀?在追求超智能的同時,OpenAI 是否能妥善處理這些潛在的風險?這樣的轉型不僅需要技術的突破,也需要對倫理和安全的重視,才能真正實現人類與 AI 的共榮共生。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

Chat Icon