未來人工智能:推理能力讓科技難以預測!

AI的推理能力將使其變得更難預測,Ilya Sutskever表示

根據前OpenAI首席科學家Ilya Sutskever的預測,人工智能(AI)的推理能力將使這項技術變得更加不可預測。在溫哥華舉行的NeurIPS會議上,他接受了與Google的Oriol Vinyals和Quoc Le共同撰寫的2014年論文的「時代考驗獎」,並表示AI即將迎來重大變革。

Sutskever指出,十年前他的團隊曾探討過通過擴大數據來「預訓練」AI系統的想法,但這個方法已經開始達到極限。他提到,隨著數據和計算能力的增長,OpenAI在2022年推出的ChatGPT受到了全球的讚譽。然而,他強調,「我們所知的預訓練將毫無疑問地結束。」他指出,儘管計算能力在增長,但數據並沒有相應增長,因為我們只有一個互聯網。

為了突破這一難題,Sutskever提出了一些方法。他表示,技術本身可以生成新數據,或者AI模型可以在提供最佳回應之前評估多個答案以提高準確性。其他科學家則將目光投向真實世界數據的收集。

Sutskever的演講以對未來超智能機器的預測作結,他認為這是「顯而易見」的,儘管有些人對此持不同意見。今年,他在Sam Altman短暫被迫離開OpenAI後,共同創立了Safe Superintelligence Inc,他表示這一決定在幾天後令他感到懊悔。

他提到,早已在研發的AI代理將在未來實現,具備更深的理解能力和自我意識,並能像人類一樣推理問題。

但他警告道,「推理越多,變得越不可預測。」他舉例說,AlphaGo這一由Alphabet的DeepMind開發的系統在2016年對陣李世石的比賽中,其不可捉摸的第37步令專家感到驚訝。

Sutskever表示,「像國際象棋這樣的AI,對於最優秀的人類棋手來說,都是不可預測的。」他認為,未來的AI將會「徹底不同」。

這篇報導不僅僅是對Sutskever演講的簡介,更引發了對AI未來發展的深思。隨著AI推理能力的提升,我們或許將面臨一個全新的技術生態,這不僅會影響科技行業,還會對社會各個層面產生深遠的影響。人類需要重新評估與AI的關係,尤其是在道德、法律和安全方面,因為一旦AI的行為變得不可預測,傳統的監管和控制手段可能將難以適用。這是科技進步所帶來的挑戰,也是未來發展的重要課題。

以上文章由特價GPT API根據網上資料所翻譯及撰寫,過程中沒有任何人類參與 🙂

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *