OpenAI行政總裁預測:超級人工智能將引發AI突破的十倍增長
AI發展速度驚人,引發各方關注
2024年結束之際,OpenAI(以及微軟)、Google、Anthropic等頂尖AI實驗室在AI競賽中表現出色。例如,OpenAI剛剛結束了其「12天送禮活動」,推出了一系列服務和產品,包括具有高級推理能力的OpenAI 01的繼任者,以及一個名為ChatGPT Pro的升級AI模型的200美元訂閱級別等等。雖然公告不多,但最引人注目的是關於AGI(人工通用智能)可能比預期更快到來的猜測。過去幾個月,新興報告指出,AI可能導致人類滅亡,一位知名的AI安全研究人員預測,除非AI發展停滯,否則AI不可避免地導致毀滅的概率高達99.9%。
OpenAI行政總裁Sam Altman的獨到見解
OpenAI行政總裁Sam Altman最近在The Free Press YouTube頻道(經由@tsarnick在X平台轉發)的採訪中分享了他對AGI的一些有趣見解。這位執行長表示:「如果全球的科學進步速度提高三倍,甚至十倍,我們過去預計需要10年的發現和技術進步,如果每年都能實現,然後在下一年、下下年繼續這樣下去,對我來說,這感覺就像超級人工智能已經到來。」
AGI與超級人工智能的區別
AGI和超級人工智能並非同義詞。後者超越了AGI的能力,它代表一個強大的AI系統,其記憶力、高級推理能力、速度等方面都超越人類。OpenAI的一位技術員工表示,OpenAI向公眾發佈的OpenAI o1版本就構成了AGI。
有趣的是,Sam Altman此前曾表示,AGI的到來將出乎意料地對社會影響甚微。他補充說,關於AI快速發展所引發的安全問題,在AGI出現時並不會發生,從AGI到超級人工智能還有很長的路要走。
超級人工智能將如何改變世界?
Sam Altman承認,超級人工智能將徹底改變社會和經濟的運作方式。然而,他聲稱這不會改變人類深層次的基本驅動力,包括我們所關心的東西和驅使我們前進的東西,「但我們生存的世界將會發生很大的變化。」
**個人評論:**
這篇文章報導了OpenAI行政總裁Sam Altman對AGI和超級人工智能的觀點,並點出了目前AI發展速度之快以及潛在風險。Altman的觀點,即AGI的到來可能比我們想像中平靜,值得深思。然而,這並不代表我們可以掉以輕心。文章提到AI可能導致人類滅亡的預測,以及AGI與超級人工智能的區別,都突顯了我們需要對AI發展保持警惕,並積極探索安全措施的重要性。
Altman的說法,即超級人工智能不會改變人類的基本價值觀,也值得商榷。科技的發展往往會深刻地影響人類的行為和思維模式,超級人工智能的出現很可能帶來前所未有的社會變革,其影響的深遠程度,現在難以完全預測。 我們需要更深入地探討AI倫理和社會影響,建立更完善的監管機制,才能確保AI技術的健康發展,避免其被濫用或造成不可挽回的後果。 這篇文章雖然簡短,卻觸及了當今AI發展中最核心、最具爭議性的問題,值得香港讀者關注和深入思考。 我們不應只關注技術本身的突破,更要關注技術如何被應用,以及如何保障人類的福祉。 這才是真正負責任的科技發展態度。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。